Télécharger les actes au format PDF

publicité
« PRATIQUES ET USAGES
ORGANISATIONNELS
DES SCIENCES ET TECHNOLOGIES
DE L’INFORMATION ET DE
LA COMMUNICATION »
ACTES du Colloque International en Sciences de l’Information
et de la Communication
RENNES - 7, 8 ET 9 SEPTEMBRE 2006
Organisé par le Centre de Recherches en Sciences de l’Information et de la
Communication – CERSIC/ERELLIF EA 3207
ÉDITION-REPROGRAPHIE ENSP
2
2
3
3
4
4
5
« PRATIQUES ET USAGES ORGANISATIONNELS DES SCIENCES
ET TECHNOLOGIES DE L’INFORMATION
ET DE LA COMMUNICATION »
Colloque international organisé les 7, 8 et 9 septembre 2006
à l’Université Rennes 2,
par le CERSIC-ERELLIF (EA 3207)
en collaboration avec
l’Ecole Supérieure de la Santé Publique (ENSP-Rennes)
et France télécom R&D
et avec le soutien
du Conseil Scientifique de l’université Rennes 2,
de Rennes Métropole,
de la Région Bretagne,
de la Caisse régionale d’épargne de Bretagne,
de la Société Française des Sciences de l’information et de la
communication,
du Groupe d’Etudes et de Recherches sur les communications
organisationnelles « Org & Co »,
et des revues Sciences de la Société et Communication et organisation.
ORGANISATION DU COLLOQUE
Responsables scientifiques
Christian LE MOENNE
Catherine LONEUX
Responsable du comité scientifique
en charge des tables rondes
Didier CHAUVIN
Comité scientifique
Responsables du comité
Recherches/Entreprises
Maryse CARMES
Emmanuel MAHE
Françoise BERNARD (France)
Robert BOURE (France)
Sylvie BOURDIN (France)
Arlette BOUZON (France)
Jean-Jacques BOUTAUD (France)
Valérie CARAYOL (France)
Yves CHEVALIER (France)
Pierre DELCAMBRE (France)
Finn FRANDSEN (Danemark)
Nicole GIROUX (Canada)
Gino GRAMACCIA (France)
Carole GROLEAU (Canada)
Brigitte GUYOT (France)
Winni JOHANSEN (Danemark)
Christian LE MOENNE (France)
Catherine LONEUX (France)
Vincent MEYER (France)
Jean-Max NOYER (France)
Serge PROULX (Canada)
Responsable de l’organisation
Sophie RAPNOUIL
Comité d’organisation
Maryse CARMES
Didier CHAUVIN
Christian LE MOENNE
Catherine LONEUX
Sophie RAPNOUIL
Julie TREVILY
Claire MAHEO
Julien TARTIVEL
François MATHIEU
Shuai YAN
Secrétariat du CERSIC ERELLIF
Nelly BRÉGEAULT-KREMBSER
5
6
PROGRAMME GENERAL
Jeudi 7 Septembre
8H30-9H30 : Accueil - Petit-déjeuner
9h30-10h15 : OUVERTURE DU COLLOQUE
Ouverture institutionnelle du Colloque, par Jean-Emile Gombert, vice-président du Conseil Scientifique,
représentant Marc Gontard, Président de l’Université Rennes 2.
Ouverture scientifique du Colloque, par Christian Le Moënne et Catherine Loneux
10h15-12h45 : SÉANCE PLÉNIÈRE AUTOUR DE L’AXE 1 - Animation scientifique: Sylvie Bourdin
Jean-Max Noyer, « De l’extension illimitée des études d’usages. Quelques remarques. »»
11h00-11h15 : pause
Jean-Jacques Boutaud, « Les organisations, entre idéal du moi et monde possible »
Finn Frandsen et Winni Johansen, « Internet, intercrise »
12H45-14H00 : Déjeuner
14H00-16H00 : TABLE RONDE PROFESSIONNELLE - Responsabilité et animation scientifique: Bertrand Parent.
« Organisation et dispositifs de communication en situation d’exception et de crise » - Amphithéatre de l’ENSP
16h00-16h15 : pause
16H15-18H45 : SÉANCE PLENIÈRE AUTOUR DE L’AXE 2- Animation scientifique: Vincent Meyer.
Brigitte Guyot, « Les pratiques des TIC du côté des sciences de l’information : quelle influence sur les processus
organisationnels ? »
Pierre Delcambre, « Quand les TIC sont la simple modernisation des technicités anciennes et n’accompagnent pas
(contre toute attente) des recompositions organisationnelles, des chercheurs en SIC doivent-ils aller planter leur tente
ailleurs ? »
Bernard Floris, « Les TICs dans l’intégration organisationnelle des entreprises et du marché ».
19h15 Cocktail
Soirée libre. Possibilité d’assister à l’ENSP à la conférence-débat sur « l’anticipation des risques liés à la Grippe aviaire ».
Vendredi 8 Septembre
8H30-9H00 : Accueil et Petit-déjeuner
9H00-12H35 : 2 ATELIERS en parallèle pour chacun des 4 axes) – voir programme ateliers
AXE 1 : Quelles pratiques émergentes ? Les organisations communicantes : entre utopies et mise en œuvre, état des
conceptions, des pratiques.
AXE 2 : Quelle influence sur les processus organisationnels ? De la notion d’instrument technologique à celle de
dispositif de régulation organisationnelle.
AXE 3 : Quel impact sur le travail ?
AXE 4 : Quelles nouvelles problématisations ?
12H45-14H00 : Déjeuner
14H00-16H00 : 2 TABLES RONDES PROFESSIONNELLES (en parallèle)
« Intranet : quelles pratiques et enjeux associés aux méthodologies de conception ? »
(Responsabilité et animation scientifique: Maryse Carmes)
« Créations et utopies autour de l’organisation communicante »
(Responsabilité et animation scientifique : Emmanuel Mahé et Julie Trevily)
16H00-16H15 : pause
16H15-16H30 : COMPTE RENDU DES 2 TABLES RONDES PROFESSIONNELLES en séance plénière, par les animateurs.
16H30-18H45 : SÉANCE PLEINIÈRE AUTOUR DE L’AXE 3 - Animation scientifique : Robert Boure
Gino Grammaccia, « Les antinomies entre la modélisation numérique des activités professionnelles et le caractère
indécidable des pratiques. »
Anne Mayère, « Repenser les TIC – Pour un cadre d’analyse des évolutions des dispositifs d’informationcommunication et des pratiques professionnelles. »
Carole Groleau, « Intégration de technologies de l’information et de la communication en milieu de travail : penser
l’arrimage des médiations sociales et matérielles avec la théorie de l’activité. »
20h00 : SOIREE DE GALA - Apéritif, Repas-Buffet et piano-bar au « Café des Bricoles » - 17 Quai de la Prévalaye, Rennes
Station de Métro : République – Aller vers la Place de Bretagne (en sortant du métro du côté du Café de la Paix) et
longer ensuite la vilaine sur 200mètres : vous y êtes.
Samedi 9 Septembre
8H30-9H00 : Accueil et Petit déjeuner
9H00-11H00 : 2 ATELIERS en parallèle pour chacun des 4 axes – voir programme ateliers
11H00-11H15 : pause
11H15-12H30 : SÉANCES PLEINIÈRE AUTOUR DE L’AXE 4 - Animation scientifique : Catherine Loneux.
Françoise Bernard, « La communication d’action et d’utilité sociétales : nouveaux enjeux, problématiques et terrains
pour la communication des organisations. »
Christian Le Moënne, « La place des formes organisationnelles dans les nouvelles problématisations en SIC. »
12h30 : CLOTURE SCIENTIFIQUE DU COLLOQUE et Déjeuner sur le pouce (sandwiches).
6
7
SOMMAIRE
PRESENTATION GÉNERALE DU COLLOQUE
PROGRAMME
COMMUNICATION INTRODUCTIVE
Christian LE MOENNE, et Catherine LONEUX 2 - « Pourquoi les recherches sur les pratiques et usages des sciences et
technologies de l’information et de la communication ne peuvent plus ignorer le contexte organisationnel »
COMMUNICATIONS AUX SEANCES PLENIERES
Françoise BERNARD - « Le paradigme de la communication engageante : nouveaux enjeux, problématiques et pratiques pour
la
communication des organisations ».
Jean-Jacques BOUTAUD - « Les organisations, entre idéal du moi et monde possible »
Pierre DELCAMBRE – « Quand les TIC sont la simple modernisation de technicités anciennes et n’accompagnent pas (contre toute
attente) des recompositions organisationnelles, des chercheurs en Sic doivent-ils aller planter leur tente ailleurs ? »
Winni JOHANSEN et Finn FRANDSEN, « Internet, intercrise ? »
Gino GRAMACCIA, « Les antinomies entre la modélisation numérique des activités professionnelles et le caractère indécidable
des pratiques. »
Carole GROLEAU,) « Intégration de technologies de l’information et de la communication en milieu de travail : Penser
l’arrimage des médiations sociales et matérielles avec la théorie de l’activité. »
Brigitte GUYOT, « Comment articuler pratiques et organisation : document dans l’activité, management de l’information »
Christian LE MOËNNE, « Apport des recherches en communications organisationnelles aux nouvelles problématisations en
Sciences de l’Information et de la Communication. »
Anne MAYERE, « Repenser les TIC : Pour un cadre d’analyse des évolutions des dispositifs d’information – communication et
des pratiques professionnelles ».
Jean-Max NOYER, « De l’extension illimitée des études d’usages. Quelques remarques. »
COMMUNICATIONS DANS LES ATELIERS (voir également le programme détaillé)
AIT OUARAB BOUAOULI Souad,« Internet dans les centres de recherche algériens : l’absence d’une stratégie interne
d’appropriation. »
ANOIR Imane et PENALVA Jean-Michel, “Usage des dispositifs socio-techniques dans les situations de travail collaboratif »
BATAZZI Claudine et ALEXIS Henri, « Une approche des TIC dans l'organisation par la notion de confiance »
BAZET Isabelle,« De l’informatisation des processus au travail informationnel en miettes. »
BAUJARD Corinne, « Collaboration et technologies : quelles pratiques organisationnelles ? »
BERTHELOT-GUIET Karine, JEANNE-PERRIER Valérie et PATRIN-LECLERE Valérie, « Informatisation d'une rédaction
radiophonique : incidences professionnelles et organisationnelles »
BOBOC Anca et DHALEINE Laurence, « Individus et usages des TIC, à l'articulation du privé et du professionnel »
BOUILLON Jean-Luc et DURAMPART Michel, « Entre autorégulation, formalismes et constructions symboliques : les
paradoxes des « nouvelles formes organisationnelles »
BOURRET Christian, « Technologies de l'information et de la communication et évolution des pratiques professionnelles : le
7
8
cas
des réseaux de santé en France »
CHABBEH Samah, « les TIC et la recherche d’une nouvelle conception de l’espace du travail et des nouvelles relations
communicationnelles et socioprofessionnelles. Le cas des entreprises de presse tunisiennes »
CHABERT Ghislaine et IBANEZ BUENO Jacques, « Télé-présence avec images et sons et communication organisationnelle »
CHAPELAIN Brigitte, « L’intelligence collective dans les communautés littéraires en ligne. »
CORDELIER Benoît,« Les TIC, actants du changement organisationnel. Une approche discursive de la structuration des
organisations »
COTTE Dominique, « Logique documentaire et organisation d'entreprise, regards croisés depuis les SIC? »
DEPAUW Jeremy,« La gestion de l’information comme processus de médiation dans l’organisation: vers une typologie des
pratiques“
DUMEZ-FEROC Isabelle, « Des dispositifs de communication multicanaux au service de l’apprentissage collaboratif dans des
classes de l’enseignement secondaire : émergence de nouvelles pratiques de formation ? »
DUMOULIN Laurence et LICOPPE Christian, « Usages des dispositifs technologiques dans la justice : le cas des audiences à
distance »
ENGUEHARD Chantal, « Le vote électronique en France : opaque et invérifiable »
GAGLIO Gérald, MARCOCCIA Michel et ZACKLAD Manuel, « L’élaboration et la réception de fichiers power point en
entreprise : instrument technologique ou dispositif de régulation organisationnelle »
GARDERE Elizabeth, « Conduire un projet d'entreprise avec les TIC. De l'acteur projet à l'acteur réseau? »
GROSJEAN Sylvie et BONNEVILLE Luc, « TIC, organisation et communication : entre informativité et communicabilité»
HANEN Teka et HAMDI Helmi, L’impact de la nouvelle économie sur le développement des firmes.”
HELLER Thomas, « TIC et contrôle : Narcisse défiguré. »
HENAFF Nolwenn, « Usages en contexte organisationnel d’un dispositif technique innovant : les blogs »
HIRT Olivier, « De l'explication des effets, à la compréhension des usages des TIC dans les organisations : un défi pour les
SIC »
HUET Romain,« Quelle régulation sociale pour « quelle société de l’information » ?
HUSSENOT Anthony, « Vers une reconsidération de la notion d'usage des outils Tic dans l'organisation : une approche en
termes d' «énaction».
JANVIER Roland, « Le contrat en action sociale : un nouvel objet technique. Impact sur les pratiques professionnelles,
incidences sur les formes et les processus organisationnels »
KESSOUS Emmanuel, « Qualifier l’information confidentielle. Retours sur les usages de la messagerie électronique et des
dispositifs de stockage dans une grande entreprise de service »
LE DEUFF Olivier, « Les documentalistes de l’Education Nationale : la perpétuelle mutation professionnelle. »
MALLET Christelle, « Une approche contextualiste de l'appropriation des TIC dans les organisations : le cas des outils de
gestion de la relation client »
MARCHAL Nicolas, « L'expérience d'une machine à voter: Sa réalisation et sa publicité auprès des utilisateurs potentiels. »
MASSOU Luc, KELLNER Catherine et MORELLI Pierre, « Pratiques effectives de travail collaboratif à distance : limites
prévisibles et inattendues »
METGE-AGOSTINELLI Marielle,« Usages et TIC : une méthodologie à construire »
MONTAGNAC-MARIE Hélène, « Internet en bibliothèque universitaire : des représentations et pratiques en construction »
MORILLON Laurent et BELIN Olivia, « L’intranet comme révélateur des libertés : jeux, pouvoirs et stratégies d’acteurs dans
les organisations.»
8
9
NOEL-CADET Nathalie, « Observer les formes de relation au travail dans les centres d’appels par l’approche sémiotique de
l’écriture d’écran. »
OMRANE Dorsaf, « PME et TIC : trajectoires, représentations et pratiques pour une analyse des usages des sites
web »
PAYEUR Cécile et ZACKLAD Manuel, « Enjeux des TIC dans le secteur de la distribution de la presse écrite »
PINEDE-WOJCIECHOWSKI Nathalie, « Logiques et stratégies de pouvoir dans les organisations via les TIC : ruptures et/ou
continuités ? »
PIPONNIER Anne, « Nouvelles dynamiques organisationnelles de la communication scientifique de réseau : émergence d’une
pragmatique éditoriale dans les portails de projets de R&D internationaux. »
PREVOT Hélène, « Le choc des cultures réglementaires dans l’aviation de loisir en France. Approche socio-anthropologique
des
processus réglementaires. »
RENAUD Lise, « La figure du cadre nomade: contribution à une analyse des discours d’accompagnement des téléphones
mobiles professionnels »
RIGOT Huguette, « L’agir info-organisationnel. Nouvelles approches des pratiques scientifiques en SHS »
ROUX Angélique, « Dispositif informationnel et utilisateur-acteur: de l’usage à la pratique. Une approche par les processus
d’appropriation»
SALANCON André, « Le commerce agroalimentaire via Internet, encore une utopie?“
VACHER Béatrice, « Bricolage informationnel : entre intérêt stratégique et banissement. Une explication historique. »
VAN CUYCK Alain, « Pour une perspective en SIC du concept de forme organisationnelle »
VERDIER Benoît, « Usages TIC et interdépendance des logiques organisationnelle et individuelle : le cas des formateurs
permanents du GRETA des Ardennes».
WILHELM Carsten, « Interférences interculturelles et co-construction interactive en ligne. Étude de cas d’un dispositif
d’apprentissage collaboratif à distance ».
ZOUARI Khaled, « Les entreprises de presse au Maghreb face à l'Internet : pratiques professionnelles et formes
organisationnelles »
9
10
INTRODUCTION DU COLLOQUE
« Pourquoi les recherches sur les pratiques et usages des sciences et technologies de
l’information et de la communication ne peuvent plus ignorer le contexte organisationnel »
Christian Le Moënne et Catherine Loneux
CERSIC-ERELLIF, EA 3207, Université de Rennes 2
[email protected] et [email protected]
Ce colloque a pour objectif d’alimenter le débat sur
les problématiques émergentes et les travaux de recherches
concernant les pratiques et usages des sciences et technologie
de l’information et de la communication (TIC) dans les
différents contextes organisationnels.
Les pratiques de mise en œuvre de ces technologies
sont souvent analysées dans des perspectives qui privilégient
les interactions individuelles en situation, en les mettant
éventuellement en relation, parfois de façon un peu artificielle,
avec des évolutions sociétales et économiques globales. La
dimension organisationnelle et le contexte institutionnel de
l’émergence de ces pratiques sont ainsi étonnamment négligés
ou massivement sous estimés, alors que les innovations
affectant les formes organisationnelles apparaissent comme des
éléments majeurs des compétitions mondiales des firmes, mais
également des états et de différents acteurs collectifs, organisés
en reseaux, pour de nouvelles logiques d’efficacité.
Le développement massif des technologies de
l’intelligence dont l’invention avait été fortement encouragée
par la perspective de réduire les coûts de transaction et
d’industrialiser les tâches administratives, semble en effet
accompagner une évolution de l’administration des firmes. La
« gestion par les instruments » et par les normes techniques
s’inscrit dans une compétition mondiale de recherche
d’efficacité organisationnelle qui bouleverse les formes
institutionnelles et traditionnelles d’organisation et propose
des logiques d’evaluation susceptibles de contourner ou de
remplacer les normes de droit. Cette référence aux normes
pratiques s’articule à la communication institutionnelle et à
« l’éthique managériale » comme modalités de gestion des
environnements sociétaux et culturels. Ceci entraîne une
recomposition permanente des limirtes entre sphères publique,
privée, et professionnelle. Les TIC jouent donc un rôle majeur
dans les dynamiques de changements organisationnels qui
accompagnent la mondialisation des réseaux et des flux, mais
également le développement simultané d’une « société de
l’information » dont chacun voit qu’elle est aussi une « société
du risque ».
Diverses problématiques d’analyse de ces pratiques
en termes d’usages tendent par ailleurs à maintenir une
séparation entre acteur, objet, dispositif, ce qui induit une
conception dualiste des techniques d’information et de
communication et des processus de médiation. Or, les TIC
affectent à l’évidence la délimitation antérieure des frontières
entre entreprise et environnements sociétaux, entre travail et
hors travail, entre sphères professionnelle, publique, privée,
etc. Elles stimulent les imaginaires et les utopies des réseaux,
de l’autonomie au travail et hors travail, de la connexion
universelle et de la coordination harmonieuse, de la société de
la connaissance partagée et de l’accès généralisé.
Travailler sur les « usages » des TIC : un enjeu
concurrentiel pour les sciences de l’information
et de la communication ?
Dans le contexte que nous venons de présenter, nous
comprenons qu’il est devenu aujourd’hui difficile d’isoler
l’impact spécifique des technologies de l’information des
différentes évolutions qui leur sont concomitantes :
concurrence accrue, réingénierie, fusions-acquisitions,
développement de nouvelles attitudes des salariés vis-à-vis des
situations de travail, etc. La recherche dans le domaine a
cherché depuis plusieurs années à développer des hypothèses
sur l’impact des TIC proposant des causalités multiples,
suggérant que l’effet des TIC doit être évalué conjointement à
l’effet d’autres variables. Ainsi, ce colloque a pour objet
d’examiner de plus près les principaux facteurs de changement
qui touchent l’univers professionnel des organisations.
Rappelons les quatre axes proposés qui ont prévalu à la
structuration des communications reçues :
AXE 1 : Quelles pratiques émergentes ? Les organisations
communicantes : entre utopies et mise en œuvre, état des
conceptions, des pratiques.
- La question des frontières et les recompositions
10
11
organisationnelles.
- La question des « formes organisationnelles » : Quelle
pertinence
pour
ce
concept ?
Quelle
dimension
anthropologique ?
- La question des usages et des études d’usages en
organisation. Faut-il parler d’usages ou de pratiques de
travail ? Quelle pertinence dans le contexte de l’autonomie
plus grande dans le travail ?
- Entreprise informationnelle, communicante, intelligente,
capitalisme cognitif, maison communicante… : Utopies ou
stimulation de l’imagination et de la recherche ?
- Rôle des facteurs linguistiques et culturels dans les usages
des TIC, objectifs linguistiques et culturels de ces usages.
AXE 2 : Quelle influence sur les processus organisationnels ?
- De la notion d’instrument technologique à celle de dispositif
de régulation organisationnelle.
- Quelle est la place des instruments technologiques dans les
organisations ?
- Comment les dispositifs technologiques se construisent-ils
dans l’organisation, et dans ses environnements ?
- Quels sont les usages des TIC dans les pratiques d’expertise
et d’évaluation ? (Veille informationnelle, chartes éthiques,
normalisation, etc.)
- Quel type de technologies relier à quel type de traces, ou de
référentiels professionnels ?
- Quelle est l’actualité des écrits d’écran de travail collaboratif
: forums, pages personnelles, groupware, etc. ?
- Quels outils technologiques voit-on émerger pour
accompagner les recompositions organisationnelles et
stabiliser l’ordonnancement du réel dans l’organisation ?
AXE 3 : Quel impact sur le travail ?
- Quels sont les usages du document numérique en
organisation ?
- Quelles technologies voit-on émerger pour quels référentiels
de compétences ?
- Quelle actualisation des usages des TIC observe-t-on en
matière de capitalisation du savoir ?
- Quelles est la réception, du côté des salariés, de ses stratégies
managériales reposant sur des TIC ?
- Quel type de mutualisation des usages de l’internet en
organisation rencontre-t-on ?
- Les dimensions organisationnelles d’internet entre
hypermédia, informations en ligne et dispositif de
coordination.
AXE 4 : Quelles nouvelles problématisations ?
- Quel est l’impact des nouvelles structurations de recherche?
- Les objets techniques en organisation : quelle interaction
avec les pratiques professionnelles ?
- Quelle définition donner à ces termes de « professionnels » et
« chercheurs » ?
- Quelle limite à l’individualisme méthodologique pour penser
les usages ?
- Les formes organisationnelles en question : Quel est l’impact
de la normalisation internationale ?
- TIC et recomposition des sphères privée et professionnelle.
- L'interdisciplinarité dans les recherches sur les TIC.
Des communications de chercheurs
et d’acteurs d’entreprises
En s’appuyant sur ces différents axes, les
communications ont permis de rapprocher les communautés
professionnelles de la recherche des professionnels et acteurs
des entreprises et administrations diverses concernés par les
TIC, afin de favoriser la construction de réseaux et la mise en
oeuvre possible de programmes collaboratifs de recherche.
Les 60 communications dans les ateliers ainsi que les
communications proposées dans les tables rondes portent sur
plusieurs grands registres de travaux. Nous trouvons ainsi dans
les textes des différents auteurs :
- Des travaux qui s’efforcent d’analyser les problèmes posés
par l’irruption massive des TIC dans les différents contextes et
niveaux organisationnels (y compris les problèmes culturels et
linguistiques, notamment dans le domaine francophone)…
- Des travaux qui s’attachent à observer et penser les usages de
tel ou tel dispositif ou technologie (mobiles, internet,
progiciels, didacticiels, etc.) en contexte organisationnel…
- Des travaux qui s’attachent à analyser la façon dont les TIC
modifient les choix stratégiques des concepteurs des formes
organisationnelles…
- Des travaux qui s’attachent à analyser les effets sur le travail
et la mise au travail des logiques participatives fondées sur les
technologies de l’intelligence et les dispositifs cognitifs…
- Des travaux qui s’attachent à analyser le rôle joué par les
politiques générales des pratiques langagières, des écritures et
des traces dans l’évolution du management et des logiques
d’action aux différents niveaux organisationnels…
- Des travaux qui s’attachent à observer le management du
changement et de l’innovation organisationnels et
communicationnels dans le contexte des TIC, notamment les
hypothèses et recherches fondées sur « l’organisation
communicante ».
- Des travaux qui s’efforcent de penser les évolution
épistémologiques et conceptuelles qui sont portées par le
développement de formes organisationnelles instables,
évolutives, en rupture avec les problématiques de modèles de
la norme.
Construire les TIC comme objet de recherche en
communication organisationnelle.
La perspective privilégiée à chaque fois dans les
communications a consisté en une problématisation des TIC
visant à les transformer en objet de recherche.
Les opérations de construction de l’objet de
recherche TIC, de son cadre conceptuel, et de ses modes
d'intelligibilité, se sont faits à partir de choix méthodologiques
différents à l’intérieur des différentes contributions proposées.
L’objectif à chaque fois, en tant que chercheur, a été pour les
participants à ce colloque de vouloir connaître le réel au delà
de ce qui apparaît comme « naturel » et « observable ». Et pour
réussir à dépasser le réel, les données telles qu’elles leur
apparaissent à l’état « brut » dans un premier temps, ils ont
tenté de les assembler pour les construire à leur manière, dans
le but de dépasser l’objet TIC tel qu’il se donnait à voir à eux.
Ils ont ainsi porté leur regard sur les différents outils
technologiques comme s’ils ne constituaient qu’un support de
plus de communication entre les acteurs de l’entreprise,
comme si ces traces numériques, écrites, n’étaient pertinentes à
observer que pour les effets qu’elles sont censées produire
auprès des auxquels elles se destinent (les salariés ou les
acteurs des environnements externes de l’organisation).
Dans tous les travaux présentés, lorsqu’ils étudient
les TIC et leurs usages dans les organisations, les auteurs ne
cherchent pas à produire uniquement de la connaissance sur
ces objets organisationnels et sociaux, mais plus sur la relation
qui s’établit entre ces objets à visée communicationnelle et
leurs usagers. L’objet doit ainsi sortir de son cadre technique
pour être envisagé autrement que par le prisme des
représentations élémentaires ne proposant pas de perspective
11
12
complexe. Alors, les questions qui émergeront auront à voir
avec une approche de l’objet perçu comme assemblage de
paramètres, d’acteurs, comme étant le fruit d’interactions
nombreuses, comme un « dispositif » émanant des forces en
présence dans l’organisation, en tension les unes vis-à-vis des
autres. L’objet, d’empirique, devient ainsi scientifiquement
construit. Les traces, les documents, la mémoire, les usages
des technologies et des supports de communication, etc.,
seront observés. Les activités en organisations donnent en effet
lieu à de nombreuses traces, plus ou moins visibles, qui vont
œuvrer dans le sens de la constitution d’une mémoire
collective, au gré des écrits qui émergeront et circuleront à
l’intérieur de l’organisation via les TIC. Des documents se
créent « en couches », de manière complexe, réunissant des
contextes, co-textes, contenus textuels ou non, selon des
circuits de conception collectifs ou non, des circuits de
diffusion, des modes d’archivage particuliers ?
Cette complexité dans la création de documents
numériques intéresse les chercheurs en communication, qui
appréhendent l’outil technologique pour chercher à
l’interpréter dans sa dimension d’usage, d'apprentissage et
d'interaction homme machine. Il convient de mettre en relation
la forme de ces documents avec la nature de leur production, si
l’on souhaite atteindre la genèse de la constitution de
l’organisation.
Ainsi, les auteurs ont tenté d’établir une
distanciation vis-à-vis des objets professionnels. Il s’est agi
pour eux de construire un objet original, sans que la pensée ne
se délite au fur et à mesure des théories qu’ils ont énoncées, en
offrant un repérage bibliographique clair. Pour valider leur
objet, ils ont délimité leur travail de recherche par rapport à
l’essai, afin d’éviter le risque de compilation d’auteurs et celui
de la métaphorisation (emprunt dans notre discipline de
concepts d’autres disciplines). Ils ont formulé et accumulé des
hypothèses, pour prédire a minima, proposant un savoir qui
essaie de penser ses propres limites. Dans cette perspective, le
fait scientifique devient un objet scientifique, un artefact. Les
faits
scientifiques
apparaissent
comme
construits,
communiqués, évalués, sous la forme de propositions écrites :
le travail scientifique devient une activité interprétative.
Interroger l’organisation « dématérialisée »
ou intelligente ?
Beaucoup de communications ont proposé également
des analyses portant sur des questions plus générales, telle que
celle de la transformation de l’organisation par les TIC. Ainsi,
les phénomènes liés à l’automatisation de la production sont
appréhendés comme provoquant des changements non
seulement dans les structures mais aussi dans les rôles tenus
par certains acteurs.
Ces transformations ont à voir avec :
- la réduction des tâches classiques de l’encadrement de
proximité (cadences, charges, planning)
- l’augmentation des aléas techniques
- le renforcement des services techniques (méthodes, entretien)
- l’irruption de la préoccupation commerciale dans l’atelier
Cette influence des dispositifs techniques se retrouve
ailleurs dans les organisations, dès que l’informatique se
développe (dans le secteur administratif par exemple). Ces
nouvelles technologies, de traitement et de diffusion de
l’information, couplées à des stratégies nouvelles de gestion
des « ressources humaines » ont de effets considérables de
« remodelage » (Livian, p. 62), sinon de la structure elle-même
de ces organisations, du moins des compétences des salariés et
de leurs modes de relation. Pierre Livian nous met en garde
vis-à-vis de deux écueils à éviter lorsqu’on aborde la question
de la technologie en organisation :
- il faut éviter de les considérer comme neutres et sans effet
particulier
- il faut de même éviter de la considérer comme déterminante,
sans possibilité d’intervention ou de marge de manœuvre
« Dans un cadre qui considère l’organisation comme un
« construit social », influencée mais non déterminée par des
facteurs extérieurs, la technologie contribue, avec d’autres
variables, à façonner des situations auxquelles les individus et
les groupes vont réagir et s’adapter. Ces stratégies sont
observables au niveau du lieu de travail, mais dépendent
aussi du cadre institutionnel au sein duquel on se place
(relations sociales, système éducatif, modèle de production) et
qui oriente, d’une certaine manière, les opportunités et
contraintes liées à cette technologie. On le sait aujourd’hui
d’autant mieux que les comparaisons internationales des
systèmes d’organisation et d’emploi montrent bien une
variabilité institutionnelle des « effets » de la même
technologie. » (Livian, p. 64).
Interroger les relations entre les technologies et
l’organisation « dématérialisée » revient à réaffirmer le rejet de
tout déterminisme pour comprendre les organisations, dans un
sens comme dans l’autre : une technologie aurait des effets
organisationnels incontournables, ou bien une organisation
conditionnerait l’adoption ou l’usage d’une technologie).
Selon Livian, il y a une interaction entre solutions
technologiques et organisationnelles. « Il n’y a pas de
technologie
pure,
détachée
des
contingences
organisationnelles,
de
même
que
les
dispositifs
organisationnels sont bâtis sur les technologies existant à un
moment donné. Il y a interstructuration des deux domaines »
(Livian, p. 210). Cette interrelation entre les technologies et
leurs acteurs laisse de la place à une forme de liberté. Cela ne
veut pas dire que tout est possible, mais on voit apparaître des
stratégies du côté du fournisseur de technologies qui a des
objectifs de valorisation de ses technologies et de domination
technique, ainsi que de stratégies du côté de l’utilisateur, liées
à la stratégie de l’organisation (une administration voulant
réduire ses coûts de traitement de l’information, un choix de
tel ou tel dispositif technico-organisationnel).
Dans ce contexte, on devine que les voies par
lesquelles une organisation adopte une technologie passent par
des interactions entre acteurs, et doivent tenir compte aussi
bien de ce qui se passe dans l’organisation que entre les
organisations. Cette technologie pourra redéfinir la place des
acteurs économiques les uns par rapport aux autres, au sein du
secteur d’activités dans lequel ils opèrent. De nombreux
exemples de technologies ont été présentés dans les articles
reçus pour ce colloque, traitant des changements
organisationnels occasionnés par la dématérialisation
provoquée par les différents objets technologiques, tels que le
téléphone mobile, la visio-conférence, les outils de travail
collaboratifs
(« workflow »),
les
technologies
des
documentalistes, des centres d’appel, des acteurs de santé, des
médias presse, radiophoniques et télévisés.
Analyser les éléments
organisationnels ?
socio-cognitifs
des
processus
Outre leur dimension dématérialisée, les actions
délibérées des acteurs en charge des TIC dans les
organisations, ainsi que celles des usagers, possèdent de
même, semble-t-il, une base socio-cognitive et reflètent
l’installation de changements dans les normes et les stratégies.
L’apprentissage humain, dans cette perspective, sera compris
en termes de construction, de test, de restructuration des
connaissances. La construction et la stabilité des formes
12
13
d’organisation
passe
alors
par
un
apprentissage
organisationnel (notion plusieurs fois abordée dans les
communications). Argyris et Schön analysent l’organisation
dans une double perspective. D’abord, elle est perçue comme
associée à l’action, constituée d’un gouvernement (« polis »),
d’une agence et d’un système de tâches. Ensuite, elles est
associée à la connaissance, étant théorie de l’action, entreprise
cognitive et artefact cognitif : « l’organisation est un artefact
de moyens individuels de se représenter l’organisation »
(Argyris, Schön, 1978, p. 16). Les « cartes organisationnelles »
des acteurs mobilisent des images, des descriptions partagées
de l’organisation que les individus construisent ensemble et
utilisent dans leur démarche, au gré des changements internes
et externes. L’organisation cherche elle-même à assurer sa
propre transformation, afin de s’adapter à des conditions
nouvelles d’exploitation des technologies issues des activités
de recherche et développement.
structures sociales pourraient
technologies.
être incarnées dans les
Le discours qui accompagnait les TIC lors de leur
essor au début des années 90 jouait sur le lien entre
communication technique et lien social, entre échange et
interactivité, mais aujourd’hui, la pensée critique de la
technique présente dans le champ de la communication
organisationnelle et au sein des pratiques professionnelles a
tendance à intégrer une pensée critique et plus nuancée sur les
usages de ces technologies. En matière d’organisation du
travail, par exemple, les analyses proposées montrent que nous
sommes sans doute dans un moment caractérisé par un
principe d’ouverture de l’infrastructure TIC, d’interconnexion
de réseaux, donc de dislocation des frontières de
l’organisation.
BIBLIOGRAPHIE
De nombreuses communications ont cherché à
repérer ces imaginaires et représentations associées aux TIC,
partant de l’idée que les inventions techniques n’arrivent pas
seules, mais prennent place dans un imaginaire qui leur
préexiste. Le rapport entre imaginaire et processus
d’innovation technique est souvent interrogé via des analyses
empruntant au courant socio-technique et portant par exemple
sur l’analyse des discours relatifs aux TIC dans les
organisations. Le caractère matériel des TIC, leurs
fonctionnalités, leurs sources potentielles d’efficience, se
double pour ce courant théorique d’un caractère social,
d’usage particulier dans un contexte organisationnel, où coexistent des rélités diverses, hétérogènes, mal articulées
(Orlikowski). La technologie devient une construction sociale
prenant place avant l’action, en raison des institutions
cognitives qui contribuent à définir son « esprit » (Desanctis),
sa « définition officielle » concernant ses usages appropriés.
Les caractéristiques de cette technologie conduisent à des
modes d’interaction qui peuvent modifier les propriétés
structurelles des organisations. Cela suppose un processus de
co-construction de la technologie et des pratiques
professionnelles qui dépasse les visions déterministes et
structuro-fonctionnalistes qui ont tendance à considérer
l’innovation technologique comme objet stabilisé. Ce courant
sera parfois critiqué dans la mesure où il implique que les
Argyris Ch., Schön D.A. (1978) Organizational Learning : a Theory
of Action Perspective, Massachussets, California (USA), London
(U.K.), Ontario (Canada), Sydney (Ausatralia), Addison-Wesley
Publishing Company.
Desanctis G. Poole M.S. (1994), « Capturing the Complexity in
Advanced Technology Use : Adaptive Structuration Theory »,
Organiszation Science, vol. 5, n°2.
Grize, J-B et Vergès P., Silem A., (1987) : Salariés face aux nouvelles
technologies, vers une socio-logique des représentations. Lyon,
CNRS.
Grunstein M. (1995), La capitalisation des connaissances de
l'entreprise, système de production de connaissances. L'entreprise
apprenante et les Sciences de la Complexité, Aix-en-Provence, éd. ??.
Linhart D. (2000), « Le discours d’accompagnement des TIC dans les
entreprises », La communication entre libéralisme et démoncratie,
Paris, Actes du colloque du 12 décembre 2000.
Livian Y-F. (2005), Organisation – Théories et pratiques, 3è édition,
Paris, Dunod.
Orlikowski W. (1992), « The Duality of Technology : Rethinking the
Concept of Technology and Organizations », Organization Science,
vol. 3(3), p. 398.
Suchman L. (1987) Plans and situated actions : The problem of
human-machine communication, New-York, Cambridge University
Press.
Tiberghien G. (1988) « Psychologie cognitive, science de la cognition
et technologie de la connaissance », in Martin C. Informatique et
société, des chercheurs s’interrogent, Presses Universitaires de
Grenoble, pp. 82-96.
13
14
COMMUNICATIONS AUX SEANCES PLENIERES DU COLLOQUE
Le paradigme de la communication engageante : nouveaux enjeux, problématiques et pratiques
pour la communication des organisations
Françoise Bernard,
CREPCOM, Université de Provence.
Des enjeux de société cruciaux tels que la santé et la
prévention,
la
protection
de
l’environnement
et
l’écocitoyenneté, impliquent fortement l’information et la
communication, par exemple sous la forme de programmes de
sensibilisation et d’information, mais aussi dans la conduite de
projets fortement médiatés et médiatisés.
De nouvelles pratiques sociétales sont mises en place qui
comportent les caractéristiques suivantes :
Conception de projets impliquant différents
partenariats :
institutions,
pouvoirs
publics,
collectivités locales, entreprises, équipes de
recherche, associations, bénévoles, etc.
Actions collectives portées par des pratiques de
médiation et de médiatisation
Emergence d’une « culture de la responsabilité
sociétale » (Bernard, 2005)
Questionnement concernant les pratiques des
« professionnels » de la communication (presse,
agences de communication, etc.)
Des chercheurs en communication, et notamment en
communication des organisations, sont impliqués dans des
projets de recherche financés par l’état, les collectivités
territoriales portant sur ces thématiques.
De nouveaux terrains de recherche sont ainsi construits. Ils
nécessitent un élargissement du pluralisme théorique,
méthodologique et empirique en vigueur dans le champ des
sciences de l’information et de la communication.
En ce qui concerne la dimension théorique, il s’agit de
convoquer des ressources théoriques susceptibles de penser la
relation entre communication et action. Des travaux en cours
visent à articuler les théories de l’action formulées dans le
champ de la psychologie sociale autour de la théorie de
l’engagement avec des apports théoriques de la
communication des organisations (Joule et Bernard, 2005 ;
Bernard et Joule, 2005). Par ailleurs, les actions conduites et
étudiées mènent à un dépassement des objets « traditionnels »
de la communication des organisations et notamment à de
nouvelles problématisations qui travaillent la question de
l’ « inter organisation » ou encore de « l’organisation élargie ».
En ce qui concerne la dimension méthodologique, les
chercheurs se situent bien souvent dans des logiques de
« recherche action ». Ces logiques conduisent à expliciter la
posture du chercheur et les conditions de mise en œuvre de
travaux de recherche qui prennent en compte concrètement les
questions du changement sociétal. Par ailleurs, les chercheurs
sont fréquemment amenés à mettre en place des instances de
« chercheur collectif » qui fédèrent des chercheurs de métiers
et des non chercheurs décideurs et acteurs des projets. De
telles instances s’avèrent souvent très pertinentes afin de
travailler dans les deux sens la relation entre théorie et
pratique.
En ce qui concerne la dimension empirique, il s’agit d’être
particulièrement vigilants aux question posées par le terrain,
par exemple comment articuler en situation les trois questions
du sens, du lien et de l’action dans des projets marqués par
l’interculturalité (cultures de groupes, de métiers,
d’organisations, etc.).
Ainsi, les enjeux de société dont il a été question plus haut
conduisent à un élargissement significatif de l’habitus
scientifique en communication des organisations dont l’un des
points, et non le moindre, est d’étudier des organisations
autres que les organisations marchandes, ce qui fait
historiquement partie du projet scientifique de la
communication des organisations.
Bibliographie (sélection)
Bernard F. (2005). « La question de la culture et de la
communication interorganisationnelles. Le cas de la communication
d’action et d’utilité sociétales » Actes du colloque Culture des
organisations, I3M, Université de Nice-Sophia Antipolis.
Bernard F. & Joule R.V. (2005). « Le pluralisme
méthodologique en SIC à l’épreuve de la « communication
engageante », Questions de communication, Presses Universitaires
de Nancy, n°7, p. 187-205.
Bernard F. (2006, sous presse). « Organiser la communication
d’action et d’utilité sociétales. Le paradigme de la communication
engageante », Communication & Organisation,GreCo, Université
Michel de Montaigne, Bordeaux 3.
14
15
« Les organisations, entre idéal du moi et monde possible »
Jean-Jacques BOUTAUD,
LIMSIC, Université de Bourgogne,
[email protected]
L’usage des TIC est gouverné, a priori, par des raisons
instrumentales : mieux communiquer, plus vite, à moindre
coût, partout, à tout moment, gagner en puissance et en
facilité. Mais les problématiques émergentes en information et
communication, notamment autour des usages, prennent en
compte des dimensions complexes, non réductibles à des
variables pratiques et opératoires. Au-delà de la matérialité des
supports et des techniques, sont impliqués les rôles des
usagers, leurs compétences, certaines modalités relationnelles
et organisationnelles. Tout un univers de construction de soi et
du monde que la sémioTIC, si l’on veut bien pardonner cette
facilité, décrit en termes de monde possible. Entre le monde
réel, certes construit (socialement, mentalement) mais
présupposé comme cadre « naturel » de manifestation, et le
monde textuel, inscrit dans nos messages, nos énoncés, le
propre de la communication tient dans cette fiction de la
relation qu’est le monde possible, le monde de l’énonciation.
Concrètement pour notre sujet, cela engage à concevoir
idéalement le rôle des TIC au sein de la société, et des
organisations en particulier, en présupposant idéalement les
pôles d’énonciation qui font usage de ces médiations
techniques, dans leur propension à construire leurs rôles, leurs
compétences et, plus encore, leur image et leur identité, sur un
plan symbolique, cette fois, et pas simplement matériel. Le
monde possible est donc celui de l’usager modèle (en
production comme en réception, à titre individuel comme à
titre collectif), fiction nécessaire du discours et de
l’énonciation, pour construire l’idéal de la relation. Sans quoi
il faudrait rabattre, dans le discours sur les TIC, tout le poids
du réel, avec son cortège d’ennuis, de corvées, de contraintes,
de limites (trop de travail, pas assez de temps, trop dur), qui
ramène bien vite sur terre l’instance d’énonciation, construite
idéalement dans le discours, dans l’action, ou que
l’organisation s’emploie à construire idéalement. A côté ou audelà des logiques de valorisation des TIC, à décrire, et des
fonctions dominantes, reconnues ou attribuées aux TIC, il faut
déjà identifier ce niveau d’énonciation du monde possible,
entre réel et textuel, en comprendre la fonction symbolique
dans la construction des pôles et des figures
de
communication, selon un mouvement qui porte (soutenir et
tendre vers) le discours et du même coup les sujets vers l’idéal
de la relation. La fiction, pour ne pas dire l’utopie du monde
possible, construit autour des TIC dans les organisations, nous
portera précisément vers des problématiques émergentes à
l’horizon sensible et symbolique de la communication, avec
les valeurs associées aux TIC : la performance, la transparence,
la quête immatérielle, dans le permanent de la relation. Le
performant et le performatif.
Quand les TIC sont la simple modernisation de technicités anciennes
et n’accompagnent pas (contre toute attente) des recompositions organisationnelles,
des chercheurs en Sic doivent-ils aller planter leur tente ailleurs ?
Pierre DELCAMBRE
GERICO Université Lille 3
[email protected]
*Des réactions pour l’ouverture d’un travail et de discussions…
Mon intervention est issue d’une réaction, que le titre assume,
à l’appel à communication de ce colloque. Ce sont certes les
réactions d’un homme réactif, mais aussi d’un chercheur
d’Org&Co qui a toujours critiqué la centration NTIC de notre
communauté scientifique, comme le risque d’une impasse
majeure. Impasse collective, non faute de bons travaux sur la
question –les journées, les thèses en voient régulièrementmais faute d’un cadre épistémologique suffisamment commun
donc objet de vraies discussions critiques, faute d’un cadre
épistémologique
qui
discute
d’une
position
« communicationnelle » sur les pratiques dans les
organisations,
sur
le
travail
informationnel
et
communicationnel, dans des environnements assistés ou non.
L’appel à communication parle tantôt de « dispositifs ou
technologie (mobiles, Internet, progiciels, didacticiels, etc. )»
invitant à observer et penser les « usages », tantôt de
« dispositif de régulation organisationnelle » invitant à penser
les stratégies managériales.. Le terme de « TIC » est-il
pertinent pour le travail de recherche ? L’analyse que faisait il
y a près de 20 ans B.Miège pour distinguer, dans la mise en
œuvre des « TIC » (qui n’étaient pas chez lui réduites aux
dispositifs informatisés) 3 mouvements : « forger une identité
forte », « accompagner l’émergence d’un nouveau modèle
d’organisation du travail », « participer à la modernisation de
la production » … doit-elle être revue ? Doit-elle être revue et
déplacée en affirmant « l’évidence » d’un triple rôle (voir
l’appel à contribution) : 1 les TIC affectent à l’évidence la
délimitation antérieure des frontières entre entreprise et
environnements sociétaux… 2 les TIC semblent accompagner
une administration des firmes par les instruments et les normes
techniques qui proposent des logiques d’efficacité susceptibles
de remplacer des normes de droit »… 3 les TIC jouent un rôle
majeur dans les dynamiques de changement organisationnels
qu accompagnent la mondialisation des réseaux et des flux ?
15
16
Depuis 20 ans nos travaux ont-ils contribué à légitimer une
croyance dans le caractère « structurant » des TIC dans les
aventures des systèmes productifs et des organisations de
services ?
Autre réaction, autre doute : devons-nous, pouvons-nous, dans
l’analyse des communications en contexte de travail, nous
appuyer sur le concept d’usage sans revenir sur Laulan,
Perriaut, Jouët, en assimilant leurs avancées pour mieux penser
le décalage nécessaire entre le contexte de grande
consommation et les contextes de travail. Dans l’ensemble de
notre communauté (sciences de l’information et de la
communication) nous avons cherché à développer un courant
critique qui ne soit pas simplement dans les valises des
discours enchantés des marchants et du marketing. Nous
sommes néanmoins sans cesse à devoir penser
l’enrichissement des dispositifs, des machines tant hard que
soft que l’industrie reconfigure pour mieux intégrer des
fonctionnalités supplémentaires dans de nouveaux modules de
travail assisté. Nous passons derrière eux, commandités ou non
pour des études d’ »usage », nous passons derrière une
littérature explicitant et valorisant certains « usages ». Pour
partie notre tâche consiste à vérifier la pertinence des discours,
à anticiper de manière critique les réappropriations par les
salariés, -les usagers ?- sur les terrains de recherche auxquels
nous avons accès. Mais, en faisant cela, c’est au risque de quel
enfermement scientifique ? Qui use quoi dans les contextes de
travail ? Pourquoi analyser les communications de travail, le
jeu de la structuration organisationnelle, les coopérations, la
disponibilité, le travail sans assistance, l’emploi et la
transformation des outils du travail… en termes d’usage ?
Qu’est-ce que cela nous coûte théoriquement ?
Ces réactions sont d’autant plus réactives que, pour ma part, je
n’en suis pas encore à avoir fait ce travail que je souhaite, de
relecture, d’interrogation critique. Je voudrai ouvrir l’espace
de discussion, demander des collaborations sur un tel
programme, et montrer avec le travail mené avec mes étudiants
pourquoi nous sommes insatisfaits des cadres actuellement
proposés.
*le travail mené
Pour instruire cette discussion nous proposons de travailler
non sur les « Tic » en général, mais sur « l’usage d’un
logiciel », en l’occurrence des logiciels de billetterie
informatisée utilisés dans le secteur culturel, et sur les
« recompositions organisationnelles » qui accompagneraient la
mise en œuvre d’une billetterie informatisée. Plutôt que de
travailler contrastivement sur des structures de même nature
disposant ou non d’une billetterie informatisée, nous avons
enquêté sur un ensemble de structures disposant d’un tel
système, en enquêtant sur les « usages » (donc les « usagers »)
et les changements organisationnels que la mise en œuvre d’un
tel système pourrait induire, notamment sur les « places » des
différents « services », potentiellement « usagers » ou
« utilisateurs », composant ordinairement un établissement
culturel. Le travail d’enquête a été mené dans le cadre d’un
séminaire de recherche de 11 Master2 Métiers de la culture.
Nous avons pu ainsi développer un protocole d’enquête sur
l’ensemble des établissements culturels de la métropole lilloise
dotés d’un système de billetterie informatisée (9
établissements de type Théâtre National en Région, Opéra,
Scène nationale, Scène conventionnée, qui sont autant de
structures de création et/ou de diffusion du « spectacle vivant »
-théâtre, danse, musique, opéra, cirque, théâtre pour la
jeunesse-). Ce sont aussi des structures pérennes, même si elles
sont régulièrement déstabilisées dans leurs financements, leur
direction, leur organisation. Et relativement anciennes dans
leur existence. Il existe bien d’autres équipements culturels,
mais leur envergure et leur stabilité est moindre… et
l’équipement en billetterie informatisée n’est pas encore à
l’ordre du jour des investissements.
L’existence de logiciels de billetterie est bien connue de la
profession. La revue La Scène, revue professionnelle du
spectacle vivant, fait régulièrement des articles sur les
billetteries informatisées ; elle a même publié un comparatif
(dans le N°36, mars 2005) entre les 10 logiciels présents sur le
marché –chacun indiquant chez qui il est installé… L’idée
courante dans la profession, énoncée dans la présentation de ce
comparatif « consommateur » est la suivante « L’évolution
notable de la dernière décennie reflète l’une des
préoccupations majeures des lieux : élargir leur public et le
fidéliser. La mise en œuvre de fonctions liées aux relations
publiques (bases de données, états statistiques sur le profil des
spectateurs…) s’est ainsi généralisée ».
Avant d’indiquer les hypothèses de l’enquête, il faut indiquer
quelques éléments sur les organisations que sont ces
établissements culturels. On convient généralement que depuis
la première décentralisation dramatique, il y a eu une poussée
forte du nombre et de la variété des établissements culturels,
en France, dans les années des ministères Lang. On convient
aussi que ces structures, une fois passée la phase des premières
installations de structures dirigées par de « grands » créateurs
(directeurs de ce premier cercle de « lieux »), -phase qui ne se
développe pas aux mêmes moments pour le théâtre, la danse,
le cirque, les arts de la rue…- se sont installées dans une
seconde phase des structures de « diffusion », qui finalement
formeront un « maillage » de structures aidées par les pouvoirs
publics. Leur stabilité économique, quand elle existe, est celle
de conventionnements entre plusieurs puissances publiques.
Mais leur justification est la « démocratisation culturelle », le
développement des publics. On convient encore que cette
installation a été un moment de « professionnalisation » du
secteur culturel, du « spectacle vivant » comme on dit.
Professionnalisation
de
directions
(programmateursresponsables des structures en rapport direct avec les
administrations des tutelles, aidés d’administrateurs) d’abord ;
professionnalisation du pôle « relations publiques » (relations
avec les médias, développement du travail de contact avec les
publics potentiels ou publics souhaités par les puissances
publiques, postes que l’on appelle de « médiateur culturel »
parfois et plus souvent de « relations avec les publics »
ensuite ; mais aussi, enfin, professionnalisation de l’accueilbilletterie. On peut dire enfin que dans l’organisation
coutumière que montrent nombre d’organigrammes, la
« direction » est bicéphale (directeur+administrateur) voire
tricéphale lorsque le responsable de la « communication » ou
des « Relations publiques », doté parfois du statut de
« secrétaire général », y est intégré. Le service « billetterie » est
parfois intégré au service « communication », mais parfois il
est en lien hiérarchique direct avec l’administrateur. C’est
rarement un poste avec responsable au statut de cadre.
En effet, pour finir, il faut dire que, même si la billetterie ne
représente qu’un chiffre souvent faible des recettes
(majoritairement les « recettes », ce sont des subventions
d’équilibre), elle est une pièce d’un ensemble juridique et
fiscal : le billet est une valeur dès qu’il est émis, les recettes de
caisse sont liées aux tarifs de ces billets, les recettes de
billetterie renvoient à des opérations fiscales. Toute erreur de
billetterie, erreur de caisse, induit un travail de vérification
sous la responsabilité de l’administrateur. Le logiciel de
billetterie, on ne le dit plus dans les arguments de vente, évite
l’édition fort complexe de billets imprimés en début de saison,
avec les contingents selon les tarifs, tout billet étant numéroté
et lié à la souche. Avec le logiciel, on édite au fur et à mesure
de la vente, les opérations de mémoire des numéros vendus et
de comptage sont automatisées. Tout le monde s’accorde à dire
16
17
que, dès lors, les relations entre « accueil » et
« administration » ne sont plus tendues par la culpabilité, le
sentiment de ne jamais faire « nickel », par la charge cognitive
de la gestion d’un nombre invraisemblable de carnets de billets
stockés dans une armoire forte.
Mémoire et calcul simplifieraient la charge du poste
« accueil » et changerait ses tâches ; cela rendrait moins tendus
les rapports hiérarchiques entre le gestionnaire vérificateur et
le chargé des ventes.
Pourtant le logiciel a d’autres dimensions qui nous ont amené
à poser des hypothèses sur changements organisationnels.
Nous avions été alerté par une enquête diligentée par le
Ministère de la culture et dont les résultats étaient publiées par
« Développement culturel » (oct 2004) bulletin du
Département des études, de la prospective et des statistiques
du Ministère intitulée « L’économie de la billetterie du
spectacle vivant ». On pouvait à partir de cette enquête et
d’autres observations noter ce que les vendeurs bien sûr, mais
aussi certains professionnels du secteur (des administrateurs
surtout) pouvaient trouver comme avantage à se doter d’un tel
système, à le mettre en œuvre, à former le personnel à son
usage : les avantages que nous venons de citer -réduction des
risques d’erreurs comptables, souplesse de l’édition des
billets- mais aussi, meilleure connaissance des acheteurs,
possibilité de développer automatiquement des « relances »
auprès du public connu qui n’a pas acheté, production de
statistiques utiles à la direction dans ses rapports avec les
« tutelles financières ».
On pouvait aussi, c’est un des objectifs de recherche en
communication organisationnelle, vouloir enquêter sur le
« jeu » que la mise en œuvre d’un tel équipement a produit
dans les relations entre services. Une hypothèse pouvait être
celle-ci : le service accueil-billetterie, jusqu’ici le moins
« noble » de l’organisation pouvait vivre une série de
modifications de sa place. D’une part c’est lui qui, au contact
du public, procède à la constitution des données ; d’autre part
utilisant couramment la billetterie informatisée, il peut devenir
le personnel le mieux à même de naviguer dans le logiciel, audelà du placement des clients. Il pouvait devenir un lieu
d’alerte en cas de faiblesse de remplissage, il pouvait
développer une politique de relance. Et dans ce cadre, il
pouvait à la fois faire des relances en termes d’exploitation du
public connu et préconiser des relances média plus
précisément ajustées au spectacle. Des spécialistes du géomarketing, s’il y en a dans la salle, imaginent aussi comment
une politique de com dotée d’une connaissance géographique
d’un public fidélisé peut « économiser » en termes de frais de
campagne publicitaire.
C’est pourquoi nous nous sommes intéressés dans notre
enquête aux relations entre deux services en particulier : d’une
part au service « accueil-billetterie » qui est en quelque sorte le
service « front-office » de contact-vente avec le « public
(entendu comme acheteur de billet ou demandeur d’exo pour
les VIP) ; d’autre part au service « relations avec le public »
qui est traditionnellement chargé de la « conquête » de
différents publics, répondant à une politique de
l’établissement. Des rapports symboliques structurent
profondément les « places » de ces deux services et leurs
relations. Ces places « bougent »-elles ?
On pouvait faire l’hypothèse (si l’on estime que la présence
des TIC « a une influence sur les processus organisationnels »)
que la présence de ce logiciel, sa « localisation », son
implémentation par le personnel de billetterie, la connaissance
on line qu’il permettait sur le remplissage de la salle, sur le
« public » et précisément sur la partie du « public » connu et
non consommateur pour chaque spectacle… pouvait modifier
les places symboliques des deux services considérés, pouvait
déplacer le pilotage de l’activité des « relations avec le
public » en le rendant plus sensible à la temporalité du
remplissage de chaque spectacle, de chaque représentation et
en imposant à son agenda une autre logique d’activité que
celle du « développement des publics ».
Cette hypothèse pouvait aussi se nourrir d’un conflit
professionnel autour de la catégorie de « public » : le terme de
« public » dans son usage dans le domaine culturel est
susceptible d’être entendu comme l’ensemble des acheteurs
pour une saison, comme l’ensemble des acheteurs pour une
représentation ; dès lors, le public est zone de chalandise,
bassin de public, cible du travail commercial : acheteurs
connus à mieux exploiter… Mais le « public » c’est aussi,
pour bien des professionnels du secteur culturel, des
populations sans pratique de consommation, et plus
fondamentalement sans pratique de jugement, vis-à-vis de qui
la politique de démocratisation culturelle donne des
obligations. Un établissement de diffusion culturelle est
nécessairement pris entre plusieurs logiques : une logique de
programmation, une logique de remplissage et une logique de
développement des publics, données à lire et à évaluer
conjointement et concurrentiellement. La modernisation d’un
instrument de « bonne gestion » de la vente pouvait modifier le
sens de l’activité ordinaire et la réorienter par une tension vers
de meilleurs résultats de remplissage, redéfinissant le jeu des
services dédiés à ces objectifs (programmation, tâche de
direction ; remplissage, tâche de vente-marketing ; conquête de
nouveaux publics, tâche de médiation, de « pédagogie »).
*Quels sont les résultats de l’étude ?
Une extraordinaire variation ou variété de situation.
En termes « d’usage » d’abord . On pourrait dire que l’on
trouve un usage « minimal » pour les pôles fonctionnels que
sont l’accueil billetterie et l’administration.
Il y a bien sûr l’usage par un personnel d’accueil faisant de la
vente d’abonnements ou de billets, lequel est conforté par
rapport aux risques d’erreurs. Pour le personnel qui avait vécu
la billetterie manuelle, il y a là un vrai mieux, une relation
pacifiée avec l’administrateur. Si le chargé de la billetterie est
un personnel jeune, il peut aussi, s’il n’y a pas de demande
spécifique, « utiliser » la billetterie informatisée seulement de
cette manière : en documentant de manière minimale sur le
public. Sur ce point (l’usage pour ce poste, mais aussi le
travail coopératif à ce poste s’il s’agissait de réaliser pour
l’équipe de l’établissement une base de donnée « bien faite »,
pour l’usage d’autres) il faut noter que les conditions du travail
d’accueil structurent largement l’activité du chargé de
billetterie : dans certains cas plus de 50% des billets est vendu
sur place le soir du spectacle ; dans d’autres cas l’abonnement
est la pratique majeure de telle sorte que moins de 2% des
ventes se font avant le spectacle. L’accueil est alors, en soirée,
plutôt occupé à accueillir les VIP et leur donner les « exos », et
marche comme une « borne de retrait de billets ». On imagine
que si la moitié de la jauge (dans l’exemple concret une salle
de concerts de musique actuelle de 600 places) doit acheter et
retirer ses billets dans l’heure et demie avant l’ouverture des
portes après laquelle aucun retardataire n’entre, ce n’est pas le
moment de retarder la file en procédant à un questionnement
sur l’acheteur : dans ces cas là malgré la pression des autres
services, on simplifiera la procédure de « connaissance et
gestion du public par la base de donnée.
Quant à l’administrateur, il utilise les statistiques, soit comme
argument interne lors de réunions, soit comme argument à
l’adresse des tutelles. Types de public (individuels avec la sous
catégorie étudiants parfois, avec la sous catégorie « relais »
parfois ; groupes avec les scolaires, les personnes venues par le
biais d’associations notamment du secteur social…)
localisation des spectateurs sont les informations les plus
sollicitées.
17
18
Il est donc très fréquent que les « relations publiques » se
désintéressent du logiciel et de la « connaissance du public »
qu’il est censé permettre. Certains estiment explicitement
qu’ils « connaissent leur public ». L’usage « relations
publiques » du logiciel est donc rare et pensé dans ces cas là
comme stratégique, nous y reviendrons. Cela veut dire que
l’argument de vente du magasine La Scène (et des concepteurs
de logiciels) est pour les établissements concernés (il faudrait
voir si les Festivals sont en situation différente) « sans effet » :
le travail des relations publiques est, sauf exception,
déconnecté de l’accueil billetterie.
Mais est-ce à dire que le service accueil ne peut pas se servir
de la proximité d’usage de cet outil et de sa connaissance pour
modifier sa place ? Parfois, mais pas systématiquement.
Parfois des responsables de billetterie trouvent l’occasion
d’enrichir leur tâche en préconisant des relances d’abonnement
ciblés pour le public connu mais non fidélisé, mais la situation
ne se rencontre que dans les établissements où le service
« relation avec le public » est faible, comme, par exemple,
dans la situation de l’opéra qui, ayant dès septembre octobre sa
jauge remplie par les abonnements
peut se contenter
d’attribuer au service « médiation » un quota de place pour un
travail sur des publics spécifiques que les tutelles (le conseil
général pour les Chômeurs, Rmistes, collégiens parfois ; la
région pour les lycéens) souhaitent, au titre de la
démocratisation culturelle, voir se déplacer dans ces
établissements. La relance pour meilleure exploitation du
public déjà identifié n’est pas, en fait systématique.
Dans les établissements concernés (qui sont, je le rappelle les
seules structures culturelles dotées de logiciel de billetterie sur
le territoire de la métropole lilloise, l’étude sur les festivals
restant à faire, en prenant garde que l’organisation du travail et
le jeu de la structure des personnels dans les festivals est fort
différente) la structure organisationnelle n’est guère
déstabilisée. La connaissance du public, le contact avec le
public se font sous des formes différentes pour les services
« accueil-billetterie » et « relations avec le public ». Les
conceptions sur le « développement du public » coexistent
entre le service de « conquête du public », les « relations avec
le public, entraîné à parler de la saison, de chaque spectacle, à
aller rencontrer des groupes pour sensibiliser à l’art et le
service de gestion de la salle et des ventes, qui fait rarement
partie de l’équipe de direction conceptrice de la « stratégie de
développement » de la « maison ». Et c’est le directeur, par sa
programmation et au vu de son budget alloué, qui pense le
développement de son établissement, le développement du
public n’étant qu’un des aspects de sa « mission », du
conventionnement avec ses tutelles-financeurs. Nous n’avons
rencontré qu’un cas où précisément le responsable des
relations avec le public a unifié les deux services, organise des
réunions, et se sert du logiciel lui aussi. Nous reviendrons sur
ce cas.
*Discussion :
Dès lors comme le disait notre titre : c’était qu’on était sur un
mauvais terrain, allons planter la tente ailleurs ? Que faire de
tout cela, simplement dire « soyons prudents », il n’y a pas de
structuration, pas de régulation à tout coup… Ou je n’aurais
pas dû prendre un logiciel mais un « dispositif ». Je n’ai rien
trouvé je ne viens pas au colloque !
Dans ma proposition de communication je disais
programmatiquement en mars : « Si l’on ne fait pas la traque à
l’hypothèse la plus forte (que les TIC, partout, affectent à
l’évidence…..), et si l’on cherche à observer ce qu’un
environnement informatisé modifie dans les rapports de
travail, alors il faudra être plus précis à la fois dans notre
description de la catégorie de TIC, dans notre maniement du
concept d’ « usage », et dans notre observation des
« dispositifs ».
Au lieu de traquer la « toute-puissance des Tic » dans les
reconfigurations organisationnelles, il faudra nous doter de
catégories plus précises (peut-on dire les TIC sans se
condamner à l’impasse épistémologique ?) de concepts ajustés
(peut-on dire « usage de » sans dire, pour chaque
« technologie » qui use et comment ?) d’épistémologies
clarifiées (peut-on dire « dispositif » en donnant de temps à
autre ce terme comme un simple équivalent de « technologie »
(-« mobiles, Internet, progiciels, didacticiels, etc. »-), et en
espérant qu’il ouvre à d’autres moments l’analyse de
modifications de frontières (-« entre entreprise et
environnements sociétaux, entre travail et hors travail, entre
sphères professionnelle, publique, privée, etc. »-).
Comment cumuler les résultats de travaux que nous menons
tous sur des terrains que de tels catégories et concepts
subsument ? Ma proposition d’intervention ne vise pas à nier
les résultats souvent probants d’autres chercheurs (par
exemple, sur le nouveau dispositif que serait « la société de
disponibilité » fondamentalement liée à la généralisation des
TIC selon S.Pène, 2005, ou sur la mise en place de nouvelles
normes organisationnelles sous l’effet du PMSI comme le
montrait Durampart, 2000). Il tente de poser la question d’une
conception théorique intégratrice de ces différents résultats, et
pose la question : quand les TIC sont la simple modernisation
de technicités anciennes et n’accompagnent pas (contre toute
attente) des recompositions organisationnelles, comment
intégrer ces résultats à nos recherches collectives ? ».
*Puis-je aller plus loin dans l’analyse des résultats ?
Je reprendrai pour terminer le cas étonnant dans notre panel de
la structure où le responsable du service relations publiques,
comme tel membre de l’équipe de direction, avec titre de
secrétaire général, estime devoir utiliser le logiciel. Dans ce
cas il y a plusieurs choses à dire. D’abord il refuse de s’en
servir pour exploiter le public déjà identifié par une pratique
de relance. Ensuite il s’en sert dit-il pour vérifier après coup si
le public de la saison n’est pas trop en décalage social avec la
population de sa zone de travail. Mais, dans le même temps, il
s’est refusé à demander dans les critères à faire renseigner au
moment de l’accueil celui de la CSP. On pourrait dire que
c’est inconséquent. Ca l’est vraisemblablement. Sauf que ce
refus est intéressant à deux niveaux d’analyse. D’une part
parce que c’est l’analyse du « public » qu’il développe qui lui
fait refuser de considérer la CSP comme un renseignement
pertinent : l’évolution des gens et de leur travail, à laquelle il
est politiquement sensible, l’amène précisément à vouloir
décrocher la relation et la fidélisation du public… de la
mémoire, fixée dans la base de donnée, de son statut
professionnel. Appelons cela une positon politiquement
conséquente avec une conception dynamique du sens de l’art
dans les trajectoires des gens. D’autre part, et j’en viens à mon
questionnement sur l’impasse produite par le concept d’usage,
nous voyons ici que c’est lui qui a défini pour chaque
catégorie de « public » les renseignements à demander : à
cause de lui le logiciel ne demande pas les mêmes choses aux
gens venus avec un crédit-loisir, amené par une association
d’aide aux chômeurs, aux étudiants, etc… Il a travaillé le
logiciel et les paramètres pour que la « connaissance » du
public, et la « gestion de la connaissance » soit donc affinée ;
c’est un usage quantifié, une mémoire des situations, ce ne
sont pas seulement des stats pour le discours de justification,
ce n’est pas une base pour faire une analyse sociologique des
publics.
Dans ces cas là il y a « ajustement » de l’outil et c’est le sens
de l’activité qui amène à penser ce qu’on peut faire de l’outil.
Dans les systèmes aussi fins que ces logiciels complexes (18
heures de formation ne m’ont pas suffi à « maîtriser les
18
19
potentialités » pour envisager faire un module de formation
pour mes étudiants), peut-on penser avec le concept
« d’usage » qui écrase le travail (non systématique)
d’ajustement (soit un développement spécifique demandé à
une entreprise, soit un ajustement des opérations intégrées) et
celui de navigation et travail dans la configuration. Dans ce
cas-ci il y a co-conception.
Ainsi, il y a bien des usages différentiés dans chaque type de
poste/fonction (administrateur ; accueil-billetterie). Des
facteurs structurants peuvent réduire l’usage collectif : les
publics n’arrivent pas de la même manière, leurs flux ne
s’étale pas selon les mêmes jeux horaires ; il est parfois peu
utile d’avoir une « politique de développement du public» ;
certains vont à la conquête de publics avec une connaissance
de l’environnement qui est leur qualité reconnue et ils peuvent
se défier de la « gestion informatisée des publics », et ne pas se
battre sur ce qu’est la « connaissance des publics » qu’il
s’agirait de « gérer ». Le fait de travailler comme nous l’avons
fait pour cette enquête sur des établissements de la même
nature rend encore plus lisible leurs conditions très différentes
de fonctionnement. Les professionnels des différents services
pensent leur activité (administration-gestion/ accueil-vente/
médiation-relation avec le public) ; cette activité commande
l’usage de ces outils faits pour les assister. Et la place des uns
et des autres dans le sens de l’activité a une stabilité en termes
de métiers que la modernisation des équipements partageables
n’affecte guère en définitive. L’activité et son sens
« commandent ».
Et pourtant d’autres collègues de leur côté peuvent
logiquement penser d’autres dispositifs informatiques comme
« de régulation », « déstructurant-restructurant ». Avec quels
concepts descriptifs moins soumis à variations saisonnières
que « dispositif », « TIC », « NTIC » penser les divergences de
nos résultats ? Avec quel concept moins attrape-tout et moins
centrés « outil » que « usage de » penser les salariés au travail,
dotés souvent d’une panoplie d’outils et de rituels (réunions,
rencontres,
pots,
causeries d’après spectacle) de
communication ? Avec quels concepts moins grossiers que
« régulation », « structuration » penser les rapports de force et
de coopération entre des acteurs sociaux engagés dans des
activités de production, de service… dans les périodes où de
nouveaux outils les assistent ?
Cela reste ma question.
Internet, intercrise ?
Winni JOHANSEN et Finn FRANDSEN,
Aarhus Business School, Centre for Business Communication,
[email protected] et [email protected]
Le but de cette présentation est de discuter comment et à quel
degré les TIC, de l'Internet au téléphone mobile, ont fait naître
de nouvelles pratiques organisationnelles et ont changé les
pratiques existantes liées à la gestion et à la communication de
crise des organisations. La discussion sera divisée en deux
parties :
Dans la première partie, nous allons montrer et
discuter comment l'introduction des TIC dans la société en tant
que telle a transformé la soi-disante « société de risque », et
comment cela en même temps a entrainé un changement
important de la « topographie de crise » dans laquelle les
organisations, aujourd'hui, sont forcées de naviguer et d'agir
(Rochlin 1997). Nous allons nous concentrer sur les aspects
suivants : a) les nouveaux types de crises qui sont le résultat
du changement en question (des cyber crises au sens restreint,
c'est-à-dire purement technique, du mot aux crises plus
complexes et plus embrassantes comme les « e-crimes » ou les
« e-wars »), b) les nouveaux acteurs (des « hacktivistes » aux
e-fluentials), et c) les nouveaux contextes (la nouvelle
« économie de l'attention » (Goldhaber 1997), et la nouvelle
sphère publique qui sera beaucoup plus dynamique, complexe
et imprévisible qu'avant).
Dans la deuxième partie, nous allons montrer et
discuter comment les organisations font elles-mêmes usage des
TIC dans leur communication de crise. Dans quelle mesure de
nouvelles pratiques organisationnelles ont-elles vu le jour, ou
les pratiques déjà existantes ont-elles été changées ? Nous
allons focaliser sur les trois macro phases caractérisant la
plupart des approches stratégiques, proactives et processuelles
à la gestion de crise (Coombs 1999, Roux-Dufort 2000) : a)
avant la crise (de l'évaluation des risques au « issues
management » et au « stakeholder management »), b) pendant
la crise (du diagnostic au redémarrage), et c) après la crise (de
l'évaluation à l'apprentissage postcrise). La discussion sera
menée à la lumière du fait que dans les organisations, un grand
nombre de directeurs de communication conçoivent les TIC
plus comme un obstacle que comme un avantage
professionnel.
Notre hypothèse de travail est que l'introduction des
TIC et l'émergence de nouvelles pratiques managériales et
communicatives liées à la gestion et à la communication de
crise vont obliger à la fois les chercheurs et les practiciens à
repenser :
•
•
•
•
ce qu'il faut comprendre par « crise » (les crises,
cesserons-elles dorénavant d’être définies par un
« contenu » spécifique (causalité, type de crise,
conséquences) à la faveur des TIC dont font usage les
organisations ? (Moore & Seymour 2005)
comment le travail de préparation en gestion de crise doit
se dérouler afin d’être à la hauteur de la situation des
nouveaux acteurs et des nouveaux contextes
comment les messages individuels seront formulés, et à
qui ils seront transmis
et comment un « sensemaking » rétrospectif (Weick) peut
se réaliser par suite de la nouvelle « topographie de
crise ».
Notre hypothèse de travail doit être vue à la lumière
des nouvelles recherches en communication organisationnelle
en général, et en gestion et communication de crise en
particulier, qui ont maintenant tendance à quitter la perspective
fonctionnaliste moderne en faveur d'une perspective
postmoderne combinant différentes approches nouvelles
(théorie des jeux, théorie du chaos, théorie de la complexité,
une approche critique) et qui se concentrent sur des champs
d'investigation passé inaperçus jusqu'ici (complexité,
19
20
dynamique, narrativité) (Murphy 2000, Seeger, Sellnow &
Ulmer 2003, Tyler 2005).
Notre présentation se base sur une étude empirique
de la gestion de crise des entreprises privées et des autorités
publiques au Danemark (Frandsen & Johansen 2004) et sur un
livre intitulé Krisekommunikation : Når virksomhedens image
og omdømme er truet qui part d’une approche multi-vocale à
la communication de crise (Johansen & Frandsen 2006).
Les antinomies entre la modélisation numérique des activités professionnelles
et le caractère indécidable des pratiques.
Gino GRAMACCIA,
Epistémé, Université Bordeaux 1,
[email protected]
Voilà un changement organisationnel avéré : découragés par la
rigidité des organisations traditionnelles, les gestionnaires de
systèmes complexes, les responsables d’activités à risques, les
dirigeants d’organisations par projet ont maintenant renoncé
aux modes de contrôle a priori des activités au profit d’un
management de petites structures pilotées par les objectifs et
les résultats. Ce sont deux types de modélisation des activités
qui maintenant s’opposent : le premier a fait la preuve de son
efficacité dans les organisations fonctionnelles et s’applique à
des collectifs de travail contrôlés par des schémas d’activité
répétitifs (des routines) ; le second vise à contrôler des
activités de plus en plus personnalisées principalement
évaluées à l’aune de leurs résultats. Au management classique,
qui privilégie une méthodologie de contrôle centralisée et
standardisée, se substitue la démarche qui consiste à
responsabiliser sur le résultat les acteurs situés au plus près du
terrain des opérations. Ce changement a été largement
accompagné – mais en même temps induit – par les
technologies du réseau et de la numérisation. Dans ces
situations nouvelles, l’outil informatique a pour utilité
fonctionnelle de régler l’ordonnancement des activités selon le
principe du « one shot ». Telle est, par exemple, la fonction du
planning comme paradigme technique de la synchronisation
des temporalités : les PDA organiseurs, les logiciels de
planification, tous les systèmes informatiques de gestion de
flux de données en sont des déclinaisons. De tels outils ont
pour fonction principale de maintenir les individus en état de
vigilance et de coopération sur des chaînes d’activités critiques
(en termes de qualité, de temps et de coûts). Le compromis est
toujours difficile à établir entre ce qui, des activités critiques,
doit être codifié et ce qui relève de l’autonomie individuelle
pour le traitement et le contrôle de l’incertain et de
l’indécidable.
On sait que le déclenchement d’une activité critique à partir de
sa description [Girin, 1995] présente un coût d’accès élevé :
coût de conception et coût d’accès à la description au moyen
des outils disponibles, coût de coordination sur le terrain des
opérations à partir de la modélisation d’ensemble. C’est la
raison pour laquelle la description se limite le plus souvent à
une procédure ou une directive générale (la métarègle de
François Jolivet) dont l’application est contrôlée par divers
dispositifs ad hoc (comité de pilotage, équipes de projet…),
laissant aux individus le soin de se mettre d’accord, à l’oral,
sur le choix et sur la validité de règles d’ajustement.
Autrement dit, et parce que la complexité des activités
critiques le contraint, la description des activités doit prévoir
suffisamment de variantes d’usage pour laisser un « peu de
jeu » aux acteurs. C’est dans ce jeu possible que se loge la
parole inventive, celle qui détourne ou contourne les usages au
moyen d’actes de langage coopératifs. Pour preuve, ce propos
si fréquent chez les chefs de projet : « On a fait exploser le
planning : il faut mettre le paquet sur ce chantier ! ». A la
codification et à l'explicitation des connaissances pour l'action
s'ajouterait l'inventivité pragmatique et stratégique des acteurs.
Dans un contexte critique, l’acte de langage institue la
solidarité en même temps qu’il statue sur la validité (peu
instruite, peu interprétée) de l’activité critique à conduire. Le
fait nouveau est que le procès dialogique (jeux de langage,
interactes de langage), en assurant les ajustements des
pratiques, compense les déficits de la modélisation et participe
en même temps à sa reconception permanente pour un meilleur
usage. Cette réintégration dans la « bibliothèque » des routines
des avancées illocutoires se paie aux prix d’une très grande
vigilance communicationnelle contrariant les gains, pourtant
bien faibles, de la solidarité et de la confiance acquises au
moyen des actes de langage.
20
21
Intégration de technologies de l’information et de la communication en milieu de travail :
Penser l’arrimage des médiations sociales et matérielles avec la théorie de l’activité.
Carole GROLEAU
Département de communication, Université de Montréal,
[email protected]
Depuis plus d’une décennie, les chercheurs intéressés à conceptualiser le processus d’intégration de nouvelles technologies en
milieu de travail se questionnent sur la manière dont s’articulent les dimensions matérielles et sociales de la réalité
organisationnelle dans ce contexte. Alors que différents cadres théoriques, comme la structuration, la cognition distribuée et
l’action située, ont été mobilisés pour explorer cette piste de recherche, nous proposons d’examiner cette problématique à la
lumière de la théorie de l’activité. La théorie de l’activité permet d’appréhender l’organisation dans l’actualisation de
médiations sociales et matérielles initiées par les membres d’un collectif engagés dans une activité commune. À partir d’études
de cas effectuées auprès d’un cabinet d’architectes et d’un groupe de graphistes, nous étudions comment l’initiative d’intégrer
une TIC résulte d’une série de médiations sociales où plusieurs points de vue se confrontent. C’est cette confrontation des
points de vue divergents et leurs tentatives de résolution que nous voulons comparer au sein des deux sites pour mieux
comprendre le contexte dans lequel s’inscrit l’arrivée de la TIC. Plus particulièrement, nous examinons comment la
confrontation et résolution des tensions associées aux activités sont au cœur des différents patterns d’activités qui émergent suite
à l’intégration de ces nouvelles technologies au sein des deux équipes de travail. Cette analyse nous permettra d’explorer
l’interdépendance entre les dimensions sociales et matérielles de l’activité dans un cadre spatio-temporel qui s’étend au-delà de
la situation locale afin de dépasser les logiques d’acteurs individuels pour tenir compte de la dynamique organisationnelle dans
la construction d’activités collectives dans un univers matériel en transformation.
Studies on computerization have raised important
questions over the last few decades regarding the nature and
evolution of work in organizations. Researchers share a desire
to gain a better understanding of the problematic and issues
linking work practices, organization and technology. In 1991,
George and King wrote:
As with many aspects of computing in organization, the
most interesting "impacts" of the technology have been to alter
our views of what we are studying in the process, we have
learned that the real mysteries is in the nature of organizations
themselves... computing technology has become an important
instrument in our efforts to learn more about organizations, but
the quest for knowledge on that front is far from over. (70)
A decade latter similar preoccupations can still be noted in
the organizational literature. More specifically, Barley and
Kunda (2001) argue that while the shifts in work from craft
and agricultural work to factory and office work have been
well documented, the conceptualizations of work in our
21
22
changing times are in desperate need of revision, they assert.
Our objective is to contribute to a better understanding of
the evolution of work practices in computerization contexts by
means of activity theory. This theoretical framework offers
concepts that will allow us to grasp the social and material
interactions contributing to the transformation of work.
Before we describe our approach, we will review the literature
pertaining to work practices. We assess their contribution to
provide a clear presentation of the unanswered issue that we
explore using activity theory.
1. Studies of work practices in the computerization
literature.
In their quest to redefine work in computerization settings,
numerous researchers were confronted with the difficulty of
integrating the material and social dimensions of work
(Orlikowski 1991; Bowker, Gasser, Star & Turner 1993). The
implementation of a new technology questioned the place of
materiality in organizations, which had been little theorized up
until them. The conceptual explanation of how interactions
with material entities mesh with interactions among humans
became a challenge addressed by researchers from different
traditions. Suchman (1993;1996), Hughes (Harper & Hughes
1993; Hughes et al. 1993) and Huchtins (1995) which Barley
and Kunda (2001) had identified as promising scholars in the
elaboration of new conceptualizations of work, have produced
numerous studies on work practices in computerized context
addressing in different ways this broad problematic.
Suchman, Hughes and Hutchins are associated with a
group of their colleagues in a movement labeled ‘workplace
studies’ (Heath, Knoblauch et Luff 2000). They propose that a
naturalistic approach be adopted to explore what people
actually do when they work collectively, in order to better
apprehend work in a technological context. These researchers
portray work activities as a collective process in which people
use their experience and intuition as well as information drawn
from various artifacts in their immediate environment to make
sense of reality. The conceptual frameworks used in these
studies are diverse, and include approaches such as situated
action (Suchman 1987) and distributed cognition (Hutchins
1995, Rogers and Ellis 1994).
These two different theoretical approaches have proposed
conceptualization of work integrating social and material
dimensions of everyday activities. participating to the quest to
overcome this duality. Over the years, their numerous studies
have contributed to provide a better understanding of
collaboration and coordination within work contexts
composed of multiple material artifacts. Most of their research
has examined immediate circumstances in which daily actions
take place, focusing on work performed over a short period of
time in a very circumscribed environment. This small unit of
analysis is preferred by authors using situated action because
of its ethomethodological roots (Garfinkel 1967).
For
researchers using distributed cognition, the choice of spatially
restricted areas is methodological since it allows them to the
study of interdependencies among the various sources of
information related to a specific set of tasks1. These very
focused analyses have greatly helped computer designers in
their apprehension of work practices. But, as noted by Kling
(1991), an early critic of their work, the use of limited spatial
and temporal frames renders difficult within these approach to
grasp larger phenomenon, like power relationships which are
constituted and manifest themselves beyond very
circumscribed situations.
We propose to overcome these limitations by using
activity theory to capture the social and material dimensions of
1
Hutchins (1995) studied the work on a boat but his actual empirical material is
taken from very clearly delimited work areas within the boat.
changing work practices in organizations. Like situated action
and distributed cognition, activity theory is associated with the
workplace study movement. Using a different unit of analysis
than situated action and distributed cognition, activity theory
links the immediate circumstances of action to broader social
dynamics to see how activities evolve over time. Activity
theory, like structuration, recognizes the mutual influence
between social context and action, it attempts to link
individual to collective actions but most importantly it
examines human interactions in the constitution of knowledge,
norms, rules and power relationship. Both frameworks offer a
multidimensional frame for the study of social interaction and
its potential to grasp organizational dynamics. Still, activity
theory differentiates itself on various levels. We feel that
activity theory is conceptually better equipped to apprehend
materiality, which, to us, remains a challenge for researchers
using structuration (Groleau 2000). Furthermore, activity
theory offers, with the concept of contradiction, the possibility
to analyze the particular dynamics under which decisions to
change and acquire a new artifact is made, which we feel
constitutes an important aspect related to change traditionally
overlooked by researchers using structuration 2.
Because
activity theory examines activities as they transform
themselves through social and material mediations, it offers a
notable opportunity to study facets of computerization in a
new light.
2. Activity theory as an alternative framework.
The cultural historical theory of activity was originally
developed by the Russian psychologist Vygotsky and his
student Leont’ev. In this study we will use the revisited
version of this framework proposed by Engeström (1987)3.
Activity systems are the unit of analysis and are defined as:
‘systems of collaborative human practice… the generator of a
constantly and continuously emerging context’ (Artemeva and
Freeman 2001: 168). Activities take form through a series of
mediations described in the following way:
Figure 1 here
The object depicts the orientation of collective action
towards an outcome. Like a project under construction, it
unfolds as individuals interact with tools and other human
beings: ”the object is both something given and something
anticipated, projected transformed and achieved” (Engeström
1990: 181). Activities distinguished themselves from one
another by their objects.
Subjects are individuals or groups striving to attain or
achieve the object. To achieve their object, subjects use
mediating tools. Tool is used as the label of a wide category
grouping together elements of various natures. It refers not
only to what we traditionally understand as ‘tools’ that is
material entities which we manipulate, transform and create,
but also includes signs, language and symbols which rest more
on inward oriented mediations. Both provide the foundation
of human action and intervene in the subject-object
relationship. To this top part of the figure inspired by
Vygotsky’s work (1978), Engeström added community, rules
and division of labor following Leont’ev initiative to link
individual to collectives (1978).
2 Inspired by structuration, Orlikowski investigated computerization using
improvisation (1996; 2000) while Walsham (2002) based his analysis of
computerization on Giddens’ concept of contradiction (1984). Theses studies
offer different ways to apprehend change using structuration, but both of them
focus on change from the moment the technology enters the organization
underplaying the social interactions leading to the decision to computerize, which
we feel influences how work practices are redefined.
3
For a more thorough explanation of this framework, we invite the reader to
consult one of the numerous analysis of this framework contrasting it with other
approaches such as symbolic interactionism (Star 1996), actor-network (Miettinen
1999)) and coorientation (Groleau 2006).
22
23
The community comprises multiple individuals and groups
striving to attain a common object. It brings together
individuals with different points of view and interests. As
such, activity theory describes a multivoiced system. The
division of labor describes how the community comes together
to meet the desired object. It refers more explicitly to the
allocation of tasks and responsibilities as they have been
negotiated and distributed by the members of the community.
Moreover, the rules, be they explicit or not, offer a frame in
which members of a community and subjects decode what is
acceptable for them.
Consequently, the model frames the accomplishment of
activities as resting on interactions among humans as well as
with material entities. More specifically, tools encompass
material entities used by subjects to act upon and transform the
context. Following Vygotsky, Engestrom argues that tools
favor the transmission of social-historical means and methods.
They allow the internalization of cultural forms of behavior
that are socially rooted in activities that have developed over
time. Apart from offering a rich conceptualization of material
entities, the theory extends the study of social interactions
beyond the local context, as we mentioned earlier. Engeström
recognizes formally both the fact that activities unfold in a
situated context with a variety of actors who are co-present, as
well as individuals who, although perhaps spatially distant
from the immediate context, contribute to its accomplishment.
Finally, activity theory distinguishes itself by explaining
the evolution of activities through social interactions using the
concept of contradiction.
Changes are triggered by
contradictions that individuals attempt to alleviate by
transforming their activity systems. Contradictions surface
among the connections within and between activity systems,
bringing together partially autonomous contexts to constitute
larger wholes. Each of the contexts constituting the totality has
its own logic and its own social arrangements, which may or
may not be compatible with others’ or with the whole system.
The autonomy of these contexts creates discontinuities, which
lead to contradictions whenever they become imbricated in a
single endeavor.
This fundamental tension conceptualized as a primary
contradiction surfaces in everyday contexts under various
forms as secondary contradictions. This second type of
contradictions takes place, for example, when two elements of
the activity system conflict with one another. Secondary
contradiction leads the latent primary contradiction in the
activity system to arise and take the form of a concrete
problem as tension builds between different parts of an
activity.
Reorganizing the activity system to relieve the
tension can resolve some secondary contradictions. The
resolution may take different forms such as organizational
change or the implementation of a new tool, as we will show
later in our case studies. While these secondary contradictions
might be resolved, the primary contradiction remains and will
surface again in another set of secondary contradictions,
displacing the locus of the contradiction by resolving one set
of secondary contradictions and producing another.
The concepts of activity theory will allows us to analyze
the patterns of social interactions behind the change process
involving the implementation of a new technological tool as
well as the evolution of the work practices as they unfold in
their daily context through their configuration of tools,
division of labor and rules.
3. The empirical exploration of activity theory in two
case studies
Our empirical work rests on the analysis of two
organizations faced with computerization. Two work contexts
were chosen in order to compare, contrast and better grasp the
different patterns of interactions sustaining work and its
evolution. To avoid difficulties coming from the comparative
analysis of organizations that differ along a series of
dimensions, we have selected organizations confronted with a
similar primary contradiction as well as a similar strategy to
resolve contradictions through the implementation of a new
technology.
In this context, we chose to conduct case study research.
This choice of research strategy seemed justified, given our
goal of studying a contemporary phenomenon in its natural
context without intervening. To this effect, we used multiple
sources of evidence such as observations, interviews and
document analysis which also characterize case studies.
First, observation was used to immerse the researcher in
the organizational setting in order to obtain a better
understanding of work practices of the studied units. Through
observation, we identified the social and material interactions
through which activities. Second, semi-structured interviews
were conducted to obtain data on the computerization process
from its development to its use by different organizational
members. Interviews were semi-directive, and addressed the
following themes: the computerization history, the perceived
motivations for technological change, the technological change
process, the perceptions of the collective activity, its function,
participants and evolution, as well as the relationship between
the subjects and the different members of the community.
Finally, in each setting, the data collection included the
analysis of documents ranging from office forms, software
manuals, computerization projects, reports, and printed
documents describing the organization.
Regarding the quality of our data, we assessed the
confidence and the openness of the relationship we entertained
with organizational members through the analysis of field
notes pertaining to the recurrence of events illustrating the
integration of the researcher in the field. In addition, we
verified the construct validity of our data (Yin 1994) by having
the monographs constituted from our different data sources
read by organizational members in each site.
We will now describe the studied organization in short
vignettes before we move on to a comparative analysis of the
two cases.
Computerization of the graphic design activity
The first case is that of the graphic design unit of an
advertising company founded by three friends in 1979 hiring
70 employees at the time of our visit. The managers initiated
computerization, in the graphic design unit composed of three
workers, out of the need to have a team of workers that would
be better equipped to perform a wider variety of tasks without
having to depend on outside firms. This was coherent with the
philosophy of the firm to depend as little as possible on
outside firms to conduct their business. Managers were very
frustrated because they often could not get the desired result or
change existing visuals because they had limited means and
refused to resort on outside help. The graphic designers also
felt they were constrained in the kind of visual they could
create and frustrated by the limits imposed by the existing
resources. According to the managers, new tools would make
the firm more autonomous and flexible in its production of
visuals.
Consequently, the agency's graphic artists were given
computers with three different software packages: an editing
package used to create and manipulate text or pictorial units;
an illustration package used to create more sophisticated pictorial units; and a multi-media package used to import visuals
from other media and prepare films for printing. Still,
managers were worried about the effect technology would
have on the creativity of their designers, something they
23
24
greatly valued. Of the three graphic artists, the managers
viewed one of them, Samuel, as the most creative. Prior to
computerization, each graphic designer received mandates that
would span the entire process. To preserve the creativity of
each of their graphic designers, managers believed all three of
them should keep their drawing tables and continue to perform
creative and technical tasks after computerization.
The graphic designers discovered that computerization
multiplied the number of possibilities offered to them and were
excited about moving from the old tools to the new ones,
which greatly expanded their capacity to transform and
produce interesting visuals. Among them, graphic designers
had redistributed tasks so that Samuel would do most of the
design tasks while Brenda would perform more technical
work. The third graphic designer, Frank, would do a little of
both. Their enthusiasm was then shattered by the imposition
of a division of labor requiring all three of them to do
technical and creative work.
Managers
were
greatly
dissatisfied
with
the
computerization experience. They tolerated Samuel’s lack of
technical skills because of his exceptional artistic flair. As for
Brenda and Frank, the managers could not understand why
their use of technology did not yield the expected results.
They were especially disappointed with Brenda, who seemed
to have invested some time in learning how to use the new
tools, but still had problems mastering the new tasks.
Computerization context in the architectural design
activity
The second case describes the computerization experience
of a firm of architects. Founded in 1976 by Raymond, an
architect, the firm grew rapidly. Four senior architects run the
firm. Raymond, the owner, deals with existing and future
clients. He prospects to find new contracts to bid on and
makes sure the clients of the firms are satisfied with their
work. Raymond is also an artist. He always has a sketchpad
in his briefcase. He designs buildings and prepares the
drawings for clients.
The work of architects consists of designing, preparing
drawings as well as overlooking the construction process
associated with their building projects. Their work is obtained
through the preparation of bids earning them contracts.
Raymond believes the more tenders they respond to, the more
chances they have of obtaining work. Consequently, they
produce as many bids as they can and try to be as competitive
as possible by following the trends and developments of the
industry. The preparation of bids is an important part of their
work. The artistic talent of senior partners is important in the
preparation of these documents.
A three dimensional design software package was
introduced in the firm. While clients had not formally
requested it, Raymond believed the new technology would
allow the firm to be more competitive. He though the industry
norm would be to increase the number of drawings submitted
with bids, so the firm invested in the necessary tool to produce
them to remain competitive. Raymond expressed mixed
feelings about computerization. It was costly and produced
visuals which he thought were of poor aesthetic quality
compared to hand drawings. Still, he acquired this new
technology. To work with this new tool, he hired a young
intern who had just finished his university degree in
architecture.
Since the arrival of the 3D design software package, the
way work was performed had been altered. Senior architects
still perform the drawing of the initial design with paper and
pencil but had them transfer on the computer to evaluate the
result and experiment with the design with the help of the
intern. The senior architects as well as the intern appreciated
this unexpected new form of collaboration.
The goal of producing more drawings had been met. They
were proud to have the software package because the trend
they had foreseen was actually occurring. The senior architects
still expressed their dislike regarding the new aesthetic of the
drawing which one of them associated with video game
visuals.
4. Contrasting the evolution of work in the two visited
organizations.
We will contrast the work practices in both organizations
using more detailed description of our cases along different
units of analysis to illustrate how interactions and the work
context evolve during computerization.
Changes in the immediate circumstances of work
In the immediate circumstances under which work
practices are conducted, we note differences in the way daily
actions are performed in both research sites.
Workers within the graphic design unit integrated the tool
following different paths. Samuel, the graphic designers most
respected for his creative talents, was often unable to finish his
work because of his lack of technical skills and rarely
remembered the steps he had followed to obtain the visual on
his screen. Among the three graphic designers, only Brenda
took the time to experiment with the software packages. Since
she had not performed well as a designer, she felt her technical
contribution could be valuable. A new division of labor
emerged among the graphic designers. Prior to
computerization, each graphic designers did the whole set of
tasks to produce their own visuals, while now Brenda
performed the last technically complex tasks leaving the
creative and initial steps to her two other colleagues.
Following the introduction of the new software package a
different pattern of interactions also emerged in the second
research site. The perspectives previously drawn by the senior
architects were now the result of a process in which initial
drawings were digitalized and reworked on screen until a
satisfactory visual was produced. When the tool was first
implemented, senior architects were tempted to experiment
with it. They asked the intern to try different options such as
having brick walls, or changing the location of windows.
Through trial and errors they learned to try out various
possibilities that would have been to lengthy to explore using
hand drawings. During the trial and error process now
rendered possible through the new tool, the intern proposed
his own alternatives and expressed his point of view fully
participating to the production of the computerized
perspectives.
These examples illustrate two different types of
arrangements that emerged in the immediate circumstances of
work but also new interactional patterns within each unit. In
the first case, individual appropriation led to a new way of
distributing tasks among graphic designers, which required
new forms of coordination and collaboration. In the second
case, architects now sharing their physical work environment
with the intern led spontaneously to new exchanges on the
visual being produced by technology and consequently to a
new work configuration.
In the two situations, the
manipulation of new tools meant workers had a different
capacity to commonly act upon their environment. This new
ability to act collectively became the occasion to redistribute
tasks among workers who had to develop new types of
interactions among themselves in order to produce visuals.
Extending the study of change from the situation to the
activity system.
One of activity theory’s distinctions is to integrate, in its
24
25
analysis of work, individuals who are physically distant from
the actual circumstances under which activities unfold. By
extending the unit of analysis beyond the limits of the work
unit, we note changes in the interactional dynamics within the
graphic design case study. Prior to computerization, the
guidelines accompanying the layout sent to the print shop
explained the desired output. The graphic designers did not
know the details pertaining to the needed procedures. They
had to experiment extensively with the software package to
learn the value attributed to variables and the sequence of
operations required for the desired result.
Even though
Brenda invested considerable time in learning the software,
she lacked the knowledge of many computer variables.
Normally, the visual appearing on the screen should be the
same as the printed result, but many factors leaving no visible
traces had an impact on the final product. This led to
considerable insecurity. When the information was sent to a
print shop, she felt obliged to call the printers to make sure
that there was no misunderstanding. This created a whole new
set of interactions with printers. They discussed the visual, its
color, the software packages used, the sequence of operations
performed and the document's specification. Even so, errors
were frequent. The numerous conversation between graphic
designers and printers raises a question regarding the culturally
and historically constructed knowledge of the printing industry
mediated through the new software package and its difficulty
to be understood by users who needed to keep a constant
exchange with the printers to make sense of the tool.
In the case study involving architects, interactions with
clients became the motor of technological change. To better
understand the role of clients in computerization we will now
extend our analysis to include the identification of primary and
secondary contradictions.
The two visited organizations share a common primary
contradiction. It comes form the tension between the artistic
production of graphic designers as well as architects, and the
organizational constrains pertaining to resource allocation
linked to profitability. In the two firms, graphic designers and
senior architects design and draw visuals according to artistic
conventions. 4 These two groups of workers are each
imbricated in larger organizational contexts that limits the
resources allocated to design even if it represents a competitive
advantage for each one of the firms. This tension can be
translated in activity theory concepts as design, constituting a
local context with its own artistic logic, is integrated in a larger
context functioning with an economic logic creating
discontinuities between the two levels of the activity
To further observe the role played by members of the
community in the transformation process, we will now
examine the specifics of each context by shifting to the
analysis of secondary contradictions resulting from this
common primary contradiction. In the case of the graphic
designers, the tension surfaced when it became very difficult to
meet the requirements of visual production with the internal
policy limiting outsourcing. The secondary contradiction
opposed tool to rule. Consequently, the contradiction is
endogenous. More concretely, the internal policy of reducing
the outsourcing rendered the graphic designers work difficult
to accomplish due to the lack of tools. The change came as an
attempt to resolve this tension.
FIGURE 2 HERE
In the case of the architects, the change is exogenous. The
architects experienced a different tension that lead to a similar
solution. In their situation, the manager of the firm felt that
4
At this point, it is interesting to note that both graphic designers and architects
had received recognition from their peers for the artistic quality of their work.
the industry was operating a shift leading to the production of
more visuals in the bids competing to obtain contracts. The
potential to meet the object became problematical with the
pressures of the industry, producing a secondary contradiction
between object and community.
FIGURE 3 HERE
By integrating within our analysis of social and material
interactions, members of other organizations and by framing it
in an extended temporal frame to capture the conditions under
which the technological change took place, we get a different
reading then the one we have obtained in more circumscribed
analysis of the working environment. The contradictions are
useful, not only to grasp the motivation of change, but also, to
understand the reconfiguration of the activity system as part of
an attempt to resolve secondary contradictions.
Contradiction to understand the interactional dynamics
of change
We will now examine how activities were reconfigured
after the arrival of tools in the two work environment. Even if
the solution to implement a new artifact was adopted by
managers of both firms to resolve the tensions, the results were
quite different in the two studied contexts.
In the advertising agency, managers induced change to
overcome their frustration with the lack of control they had
over graphic designers and to increase the flexibility,
autonomy and productivity of graphic designers. Interestingly
enough, the graphic designers though a new medium would
offer new ways of expressing their talent, and since they also
experienced the secondary contradiction because of the
pressure put on them by managers, they saw the arrival of the
new tool as an opportunity to gain some relief from this
tension.
Although they expressed concerns regarding the
creative skills of the designers after computerization, managers
of the advertising agency did not realize that the imposition of
performing design as well as technical tasks within that
context was extremely difficult. Even if the graphic designers
attempted to solve the problem by creating among themselves
a new division of labor dividing creative and technical tasks,
as we described in the introduction of this section, managers
imposed their point of view by requiring both set of tasks from
all three of them The primary contradiction was exacerbated
and led to a new form of secondary contradiction opposing
division of labor and object.
Within the architecture firm, the managers also initiated
computerization, to alleviate the tension coming from the
secondary contradiction. They had hoped to be able to
produce more drawings with their new software package to
remain competitive with their bids. Regarding the attribution
of tasks after computerization, the emergent pattern we
described earlier became the usual of way of preparing
perspectives. The technical tasks were attributed to a specialist
in the domain who eventually got familiar with the design
dimension of the tasks. Unlike in the advertising agency,
managers of the architecture firm are architects which means
they have themselves experienced the work performed by their
employees. They know the complex dynamics between
creativity and productivity giving them better means to decide
how resources, human and material, can be allocated to respect
the specificity of every member of the organization.
Furthermore, the senior architects were the group most
affected by the change they themselves had initiated. This
differentiates them form organizational members of the
advertising agency who confronted one another as the primary
contradiction took form in the opposition between two
different groups within the organization.
In the two cases, the transformation of activity systems
with the arrival of the new tool was driven by negotiation
25
26
engaging organizational members each having their own view
on how activity should be conducted. To some, like the
managers of the graphic design firm, the work was invisible
(Suchman 1995). More specifically, their representation of
tasks performed by graphic designers was distorted by their
lack of knowledge regarding the real nature of the work
actually done. The gap between the representations of work
of managers and those of graphic designers led to different
attempts to reconfigure the activity systems, accentuating the
tension the arrival of technology was trying to dissolve.
Furthermore, management’s willingness to gain control over
their employees through computerization also blinded the
management team of the advertising agency.
Tensions are present in the two work environments after
computerization. In both contexts the primary contradiction
persisted. In the graphic design unit, a new secondary
contradiction surfaced opposing division of labor to object
while for the architects the visual quality of their computerized
perspective was a great source of disappointment, fueling
again the primary contradiction between creativity and
productivity.
5. The contributions of activity theory to explain the
evolution of work practices.
Activity theory offers a reading of evolving work practices
in a context of technological change that highlights particular
aspects of the phenomenon.
As we have seen in our analysis organized along different
levels of analysis, the conceptual framework of activity theory
can capture the interactional dynamics of work at a very local
level. But, activity theory sees the local circumstances as an
intricate part of a larger context. This extended unit of
analysis provides an alternative frame to make sense of these
particular situations. For example, the work arrangement
emerging among graphic designers separating creative and
technical tasks can be understand as a local arrangement
accommodating their immediate needs as well as, in a broader
context, a strategy attempted by graphic designers’ to
transform the activity system and dissolve its tensions.
Like the activity system itself, its transformation is a social
construction involving various participants playing different
roles In the case of graphic designers, the productive and
creative opposing logics constituting the primary contradiction
are experienced by two different groups. The graphic
designers on one side and the managers on the other. The two
groups clashed as they tried to reconfigure the activity system
according to their own understanding of the activity and its
tension. In the other case, senior architects, as designers and
managers of the firm, simultaneously experienced the creative
and productive dimensions of the activity, giving them a
privileged point of view to dissolve the tension in their attempt
to redefine the activity system.
The material entities take part in the activity system and its
evolution in various ways. First, the link between tools and
rules constitutes the secondary contradiction in the first case
study. Rules regarding how subject and community come
together around material artifacts became problematical and
urged the members of the collective to undergo changes.
Second, in the two cases, attempts to resolve the secondary
contradictions involved the integration of a new tool. Third, in
the two cases, the use of computer software packages had
important repercussions on the division of labor. Since,
conceptually, tools are defined through their potential to act
upon the environment, it is not surprising to observe that a
new tool requires to rethink how participants collectively
contribute to the activity. Finally, the manipulation of the
software assisting graphic designers in the preparation of
visuals for printers, led to new interactions to make sense of
the culturally mediated knowledge which needed to be
contextualized.
This last contribution of tools to activity systems is at the
center of Vygotsky’s work and remains important in the actual
version of the framework. We feel apart from occupational
know-how, tool mediation could also bring forward new rules
and division of labor through which, for example technology
users can be confronted in the transformation of activity
systems. Beyond that, the way in which material artifacts
intervene in the relationship between subject, community and
object in Engeström’s revised version of activity theory
remains little explored in the literature. Although tools, the
only concept apprehending materiality, are analytically
separated from the social dimension in the activity theory
framework proposed by Engeström (1987), we observed, from
our data, that how subjects and community or community and
object come together is also constituted through interactions
with material entities. As noted in our case studies, material
artifacts have the potential to change how we collectivity act
upon our environment but also how we relate to one another,
how we define each other’s role and even the power
relationship uniting subjects and members of the community
consequently influencing the formulation of rules among them.
Furthermore, secondary contradictions as they actualize
themselves through the articulation of local and global
contexts, bring the material conditions of activities at the
forefront of the analysis of change. The two conflicting logics
constituting contradictions take form in concrete settings
through human interactions as well as individual and collective
connections to artifacts. For example, in the graphic design
case study, the lack of material resources at the disposal of
graphic designers is at the center of the social dynamics with
managers as well as other workers in the industry. In a similar
way, the secondary contradiction of architects materialized
itself as clients and architects developed contrasting views
regarding the use and value of perspectives. Material entities
in these examples take the form of tool in the case of graphic
designers while it is associated with the output resulting from
the object in the case of the architects.
It is difficult to study the social construction of activity
system and its transformation without examining how
interactions with material entities are intertwined with
interactions among humans. For this reason, we feel tools, as
a concept apprehending material artifacts should not be
isolated at the top of the activity theory triangle but be part of
the analysis through which, not only the object, but rules and
division of labor are constituted. As we act and manipulate
material entities we not only produce an output, we also
organize ourselves and determine how we do things and
behave collectively.
Regarding the arrival of a new tool in an activity system
where productivity and creativity are opposed, we noted that
both transformation processes were undertaken by managers
who opted to favor productivity. Interestingly enough, these
decisions were not necessarily perceived as unfavorable to
designers in both firms. More specifically, the graphic
designers were initially enthusiastic towards computerization.
They felt the arrival of the new tool could lead to new
possibilities. Their perception changed with the imposition of
a division of labor which felt did not respect the different
abilities of each one in the unit. If the senior architects were
not initially as enthusiastic as the graphic designers, the new
division of labor that emerged favored a greater participation
by other members of the organization to the creative process5.
Other types of primary contradiction would probably be of
interest to further explore the dynamic transformation of
5
We are thankful to Christiane Demers for this part of this analysis.
26
27
activity systems. Finally, we feel, it would be pertinent to
extend the analysis of system transformation initiated by
attempts to resolve secondary contradiction other than the
introduction of a new tool to assess in other contexts this
interdependent dynamic between artifacts and social
interaction.
Bibliograhie:
Artemava, N., & Freedman, A. (2001). Just the Boys Playing on
Computers: An Activity Theory Analysis of Differences. Journal of
Business and Technical Communication, 15(2), 164-194.
Barley, S. R., & Kunda, G. (2001). Bringing Work Back In.
Organization Science, 12(1), 76-95.
Bowker, G., L.Gasser, L. Star and W. Turner. (1993). Social Science
Research, Technical Systems and Cooperative Work. Paris: CNRS.
Engeström, Y. (1987). Learning by Expanding: An ActivityTheoretical Approach to Developmental Research. Helsinki: OrientaKonsultit Oy.
Engeström, Y. (1990). Learning Working and Imagining: Twelve
Studies in Activity Theory. Helsinki: Orienta-Konsultit Oy.
Garfinkel, H. (1967). Studies in Ethnomethodology. Englewood
Cliffs, N. J.: Prentice Hall.
George, J. K., & King, J. L. (1991). Examining the Computing and
Centralization Debate. Communications of the ACM, 34(7), 63-72.
Giddens, A. (1984). The Constitution of Society. Cambridge, MA::
The Polity Press.
Groleau, C. (2000). La théorie de la structuration appliquée aux
organisations: le cas des études sur les technologies. In D. Autissier, et
F. Wacheux (Ed.), Structuration et management des organisations:
Gestion de l'action et du changement dans les entreprises. (pp. 155179). Paris: L'Harmattan.
Groleau, C. (2006). One Phenomenon, Two Lenses: Apprehending
Collective Action From the Perspectives of Coorientation and Activity
Theories. In F. Cooren, J. R. Taylor & E. J. Van Every (Eds.),
Communication as Organizing : Empirical and Theoretical
Explorations in the Dynamic of Text and Conversation. Mahwah, NJ:
Laurence Earlbaum.
Harper, R., & Hughes, J. (1993). What a f-ing system! Send'em all to
the same place and then expect us to stop'em htting. In G. Button
(Ed.), Technology in Working Order: Studies of Work, Interaction
and Technology (pp. 127-143). London: Routledge.
Heath, C., Hubert Knoblauch and Paul Luff. (2000). Technology and
Social Interaction: The Emergence of 'Workplace Studies'. British
Journal of Sociology, 51(2), 299-320.
Hughes, J., Randall, D., & Shapiro, D. (1993). From ethnographic
record to system design: Some experiences from the field. Computer
Supported Cooperative Work, 1, 123-141.
Hutchins, E. (1995). Cognition in the Wild. Cambridge, MA: MIT
Press.
Kling, R. (1991). Computerization and Social Transformation.
Science, Technology and Human Values, 16(3), 342-367.
Leont'ev, A. N. (1978). Activity, Consciousness and Personality.
Prentice Hall: Englewood Cliffs, NJ.
Miettinen, R. (1999). The Riddle of Things: Activity Theory and
Actor-Network Theory as Approaches to Studying Innovations. Mind,
Culture and Activity, 6(3), 170-195.
Orlikowski, W. J. (1991). Integrated Information Environment or
Matrix of Control? The Contradictory Implications of Information
Technology. Accounting Management and Information Technologies,
1(1), 9-42.
Orlikowski, W. J. (2000). Using Technology and Constituting
Structures; A Practical lens for Studying Technology in Organizations.
Organization Science, 11(4), 404-428.
Orlikowski, W. J., Geoff Walshman, Mattehm R. Jones, and Janice I.
DeGross. (1996). Information Technology and Changes in
Organizational Work. London: Chapman & Hall.
Rogers, Y., and Janet Ellis. (1994). Distributed Cognition: an
Alternative Framework for Analysing and Explaining Collaborative
Working. Journal of Information Technology, 9, 119-124.
Star, S. L. (1996). Working Together: Symbolic Interactionism,
Activity Theory and Information Systems. In Y. a. D. M. Engeström
(Ed.), Cognition and Communication at Work (pp. 296-318).
Cambridge, MA: Cambridge University Press.
Suchman, L. (1987). Plans and Situated Action: The Problem of
Human-machine Communication. Cambridge MA: Cambridge
University Press.
Suchman, L. (1993). Technologies of Accountability: On Lizards and
Airplanes. In G. Button (Ed.), Technology in Working Order (pp. 113126). London: Routledge.
Suchman, L. (1995). Making Work Visible. Communications of the
ACM, 38(9), 56-65.
Suchman, L. (1996). Constituting Shared Workplaces. In Y. a. D. M.
Engeström (Ed.), Cognition and Communication at Work (pp. 35-50).
Cambridge, MA: Cambridge University Press.
Walshman, G. (2002). Cross-Cultural Software Production and Use: A
Structurational Analysis. MIS Quarterly, 26(4).
27
28
Figure 1: The activity system (Engeström 1987).
Figure 2: The graphic designers’ activity system before computerization6.
Figure 3: The architect’s activity system before computerization.
6
The lightning-shaped lines refer to contradictions.
28
29
Comment articuler pratiques et organisation :
document dans l’activité, management de l’information
Brigitte GUYOT
CNAM, Paris
[email protected]
Les 14 communications de cet axe montrent, sous la
diversité des objets (outil, logiciel, plate-formes ou plus
génériquement TIC), au moins deux notions récurrentes : celle
de dispositifs et celle d’organisation, sans qu soit toujours
distingué ce qui relève d’une organisation raisonnée et d’un
acteur collectif doté d’une autorité.
Mes travaux sur la relation entre information et
action, sur la diversité des modes de gestion de l’information,
essaient d’articulation individuel / collectif, ou local / global,
en prenant un objet concret qui donne à voir aussi bien des
pratiques que des agencements et des modes d’organisation.
a) le document est pris comme un observable circulant, produit
et utilisé pour l’avancée de la tâche et la coordination : un
équipement et un repère pour l’action
a. une forme conventionnelle dotée d’une intention et d’un
statut (une validité), une portée (extension)
qui guide, saisit ou rend compte d’une action, qui porte,
délègue à distance des intentions, des règles : à la fois repère et
trace.
b. tisse un réseau d’acteurs et des séries d’interventions
autour de lui/engagements pour le produire, l’utiliser, le
faire circuler (processus éditorial,)
c. donne à voir des processus pour organiser les activités
autour de lui
d. objet circulant dans et à travers des collectifs (dessinant
une géographie selon des modes de proximité et de
formalisation)
e. signale une organisation c'est-à-dire des règles et de
procédures : sous forme de dispositifs (de production, de
circulation, d’usage) peu ou très formalisés, auto-produits
ou imposés.
Apports de cette approche par le document à partir
de trois figures en présence : système d'information
personnel / système d'information collectif autogéré / service
d’information prestataire.
Le système d'information personnel auto-centré et
auto-géré rend compte des façons dont chacun s’organise pour
trouver et gérer l’information dont il a besoin pour travailler
(mode pragmatique). Il entre en complémentarité / concurrence
avec des systèmes d'information collectifs (tels les dispositifs
documentaires) qui fonctionnent sur une logique de prestation
et une modélisation des usages possibles et des formats
d’information censés y répondre au mieux (mode
prévisionnel). Entre ces deux extrêmes, la mise en place
récente de plate-formes de documents à des fins de
coordination (travailler ensemble au sein d’un collectif de
travail plus ou moins vaste) entraîne une dynamique de
transfert / recouvrement des systèmes personnels au profit d’un
système localement fermé ou ouvert à d’autres collectifs
général ; s’y confrontent des intérêts singuliers et d’un intérêt
collectif, avec des négociations pour bâtir un dispositif
conventionnel, généraliser des documents préformatés valables
pour soi et pour les autres et établir une confiance pour que
chacun accepte de livrer ses propres documents ou à tout le
moins de les transformer suffisamment pour qu’ils deviennent
intelligibles à d’autres.
Les acteurs se trouvent à devoir se livrer à des
opérations d’évaluation, à choisir les modes opératoires les
plus adaptés à leur action selon la situation.
3 - L’analyse de ces « investissements de forme » (Thévenot)
en situation oblige à repenser :
les critères utilisés pour définir et distinguer des collectifs
la place des dispositifs dans un collectif, en lien avec
l’idée même d’organisation
les notions de producteur, d’utilisateur, de gestionnaire
d’information, fonction actuellement redistribuées,
réagencées. Chaque acteur endosse des rôles de façon
temporaire ou permanente, et se trouve devoir acquérir les
compétences et les règles qui les sous-tendent.
la part de management d’information qui affecte
désormais l’activité de chaque acteur
Ce management de l’information concerne également les
pratiques de travail avec les TIC et les façons de travailler
ensemble par le biais de formatages croissants : réduction
des pratiques singulières à des archétypes (modélisation /
profilage), formalisation des écritures…
Se pose alors la question de l’irréductibilité des systèmes
personnels (ne serait-ce que cognitive), et les limites de leur
déversement dans des système collectif, des modes et des
organes de définition d’un bien commun en matière
d’information, et de son articulation avec l’action.
29
30
« Apport des recherches en communications organisationnelles
aux nouvelles problématisations en Sciences de l’Information et de la Communication.
»
Christian LE MOËNNE
CERSIC/ERELLIF – Université Rennes 2
[email protected]
Il s’agira de tenter une synthèse des travaux du colloque en
alimentant un certain nombre d’hypothèses concernant les
objets de recherches en communications organisationnelles et
les apports de ces travaux à la définition d’un objet des
sciences d l’information et de la communication dans leur
ensemble.
Les études « d’usages » des technologies de l’information
et de la communication menées en France depuis une trentaine
d’années, souvent commanditées par des opérateurs publics ou
privés des telecoms, se sont situées pour l’essentiel dans les
problématiques ouvertes par les travaux anglo-saxons sur les
« uses and gratifications ». De là le terme d’ « usages » dont il
fallait interroger les significations implicites, et notamment la
réduction
fréquente
des
usages
aux
interactions
« individuelles » dans différents contextes. De là également la
réduction fréquente des usages organisationnels aux
interactions « homme-machine » en situation, et la propention
à penser les adaptations mutuelles en termes d’ergonomie. Les
présupposés épistémologiques de nombreuses approches sont
ainsi implicitement individualistes méthodologiques et
dualistes. Ils séparent l’individuel et le social, le technique et
l’anthropologique, les différents niveaux de structuration des
formes organisationnelles, le dedans et le dehors…
Il faut au contraire partir du social et de l’anthropologique
comme état de fait, littéralement « état de nature » : l’humanité
a été sociale avant d’être humaine, on ne peut séparer « cortex
et silex », et les formes sociales et anthropologiques, dont les
organisations et institutions, les objets et technologies, les
idées et discours, se donnent à chaque moment comme le fond
hérité sur lequel s’inscrivent les projets et actions humains.
Les tehnologies de l’intelligence sont, pour ceux qui sont « nés
avec », le cadre anthropologique donné, hérité, au même titre
que la langue et les autres institutions sociales avec lesquels ils
ne peuvent pas ne pas agir.
Il s’en suit que les formes sociales sont perpétuellement
altérées et instituées, décadentes et émergentes, et qu’elles
résultent des aptitudes anthropologiques de l’humanité à
produire des formes organisationnelles, objectales (ou
instrumentales) et sémiotiques. Là où de
nombreuses
disciplines se penchent sur tel ou tel aspect des usages et des
pratiques liées à ces différentes formes, les sciences de
l’information et de la communication devraient revendiquer,
plutôt que la « transdisciplinarité », d’être les sciences qui se
donnent pour obet les phénomènes d’émergences et de
propagation de formes sociales.
L’analyse des processus organisationnels dans le contexte
de développement massif des technologies de l’intelligence
montre en effet que ces différentes dimensions –
organisationnelle, objectale et sémiotique - sont profondément
intriquées et ne peuvent être séparées que par une convention
épistémologique implicite ou explicite. On ne peut réduire les
pratiques et les formes sociales à des formes sémiotiques
même si elle sont évidemment symboliques : les objets et les
organisations renferment mémoire et routines, intelligence et
imaginaires, et les propagent avant même que ces formes
soient énoncées ou désignées par ceux qui les adoptent et les
propagent. De même, les formes organisationnelles résultent
d’une aptitude sociale à la coordination, au dessein intelligent,
à la communication et à l’institutionnalisation qui n’est pas
réductible aux discours et vraisemblablement les précèdent.
Les phénomèns d’information et de communication
organisationnelle sont donc des phénomènes d’invention et de
propagation de formes, d’in-formation. Ceci appelle à
reprendre à nouveaux frais la conceptualisation des catégories
d’information, de communication, d’organisation afin, par les
conceptualisations, observations et recherches, de prendre la
mesure de la polysémie de ces notions qui fonctionnent
comme des mot-pavillons.
30
31
Repenser les TIC : Pour un cadre d’analyse des évolutions des dispositifs d’information –
communication et des pratiques professionnelles.
Anne MAYERE
LERASS, Université Paul Sabatier Toulouse 3
[email protected]
Les travaux de recherches concernant les usages des
technologies de l’information et de la communication dans les
différents contextes organisationnels présentent un clivage,
relevé dans l’appel à communication, entre une approche par
les usages privilégiant les interaction individuelles, et une
dimension organisationnelle et institutionnelle. Cette dernière
est souvent négligée, avec une articulation parfois très
partielle, en ‘toile de fond’, sur des évolutions sociétales et
économiques globales. Notre communication vise à explorer
quelques contributions-clé, dans le champ de la recherche en
SIC et de la recherche sur la technique, susceptibles de
contribuer au dépassement de telles limites7.
Repenser la technique pour reconsidérer les TIC dans les
organisations
L’approche de la technique développée par E. Feenberg
nous semble particulièrement importante dans cette
perspective (Feenberg, 2004). Pour E. Feenberg, de
nombreuses contributions, y compris celles d’Heidegger ou
Habermas, sont caractérisées par une vue ‘essentialiste’, au
sens où « elle interprète un phénomène historiquement
spécifique dans les termes d’une construction conceptuelle
transhistorique » (ibid, p 39). Ce que l’essentialisme conçoit
comme une distinction ontologique entre la technique et le
sens, E. Feenberg propose de l’étudier comme « un terrain de
lutte entre différents types d’acteurs entretenant des relations
différentes à la technique et au sens » (p 17). « Les
technologies ne sont pas seulement des dispositifs efficaces ou
des pratiques visant à l’efficacité ; elles comprennent
également leur contexte dans la mesure où celui-ci est
internalisé dans leur conception même et dans leur mode
d’insertion sociale » (p18). Il fait en cela écho à L. Sfez, pour
qui la technologie est faite de technique et de discours sur la
technique, et est en cela fortement ancrée dans un contexte
agissant (Sfez, 1990). Aller plus avant dans la compréhension
de la technologie comme construit social, articulant
étroitement des techniques, des discours, des pratiques et des
représentations, et participant à construire le social et les
processus d’individuation, apparaît d’autant plus nécessaire
aujourd’hui qu’il s’agit de penser des TIC qui jouent un rôle
croissant dans les organisations.
E. Feenberg préconise la prise en compte de l’expérience
et de sa temporalité, en ce qu’elles influencent l’évolution de
l’approche qu’ont les gens des dispositifs. Il rejoint en cela la
sociologie constructiviste et l’histoire sociale de la technique.
Mais il critique l’empirisme étroit de la plupart des recherches
constructivistes qui se sont limitées à l’étude des stratégies
permettant de construire et d’emporter l’adhésion aux
7
Cette communication s’inscrit dans le cadre d’un programme de recherche
associant le LERASS et le CERTOP pour le compte de la MiRe-DREES,
‘Pilotage, coopération, cognition, dispositions : le cas de la gestion des événements
indésirables (PCCD/GEI)’.
nouveaux dispositifs et systèmes techniques. De même peut-on
pointer cette limite s’agissant de la sociologie des usages des
TIC (Jouët, 2000). Montrer les résistances et contournements
au regard des usages prescrits est certes utile, mais ne constitue
jamais que la face inversée du paradigme essentialiste centré
sur la technologie ; celle-ci est appréhendée comme une ‘boite
noire’, et étudiée dans la contingence de ses formes
d’appropriation.
Feenberg propose ‘une conception historique de l’essence
de la technique’ à travers un cadre d’analyse que nous
proposons de mobiliser pour spécifier le développement
contemporain des TIC. Nous nous proposons notamment de
montrer comment les recherches sur le travail éditorial de
l’information en organisation (Guyot, 2004), ou sur l’approche
par le document (Pédauque, 2003 ; Kolmayer, Peyrelong,
1999a) peuvent être prolongées et reconsidérées en prenant en
compte ce que Feenberg spécifie comme un double processus
d’instrumentalisation primaire et secondaire, par lequel
prennent forme la constitution fonctionnelle des objets et des
sujets techniques, et leur actualisation dans des résultats et des
dispositifs concrets.
La technique construit social dans un processus historique
Feenberg identifie l’instrumentalisation primaire comme
étant faite de quatre moments qui contribuent à la réification
de la pratique technique, à savoir, la décontextualisation, le
réductionnisme, l’autonomisation, et le positionnement.
a) La décontextualisation renvoie au processus qui
constitue des objets naturels en objets techniques en les ‘démondanisant’, c’est-à-dire en les séparant du contexte dans
lequel ils apparaissent initialement pour les intégrer dans un
système technique (Feenberg, ibid, p 194). C’est ce qui en est
jeu avec la rationalisation des productions d’information, par
exemple à travers la formalisation des méthodes de travail qui
sont désignées comme ‘meilleures pratiques’, et formalisées de
façon distincte des contextes concrets de leur première
conception et de leur mise en œuvre. Une ‘meilleure pratique’
est une pratique ‘tout terrain’, qui dans un groupe
internationalisé peut être projetée au niveau global d’une
même fonction au sein de l’ensemble du groupe (Bazet,
Mayère, 2004).
b) Le réductionnisme « se réfère au processus par lequel
les choses dé-mondanisées sont simplifiées, dépouillées de
qualités techniquement inutiles et réduites aux seuls aspects
qui permettent de les enrôler dans un réseau technique » (ibid,
p 194). Ceci rejoint les travaux sur la production de documents
en organisation, dont l’élaboration passe par un traitement de
sélection, déterminant de façon imbriquée les auteurs habilités
et ce qui peut donner matière à document (Kolmayer,
Peyrelong, 1999b). Un enjeu-clé à ce stade concerne ce qui va
différencier des qualités ‘primaires’, considérées comme
indispensables, et des qualités ‘secondaires’, qui vont être
31
32
réduites par la logique de normalisation et de quantification.
Cette désignation n’a rien de naturelle, elle s’inscrit dans des
rapports de pouvoir, elle est l’objet de confrontations
explicites ou larvées entre les acteurs concernés, et lorsqu’il y
a contestation des outils mis en place, elle porte souvent,
notamment, sur cette dimension.
Ceci interroge directement sur les représentations qui vont
participer à spécifier cette différenciation. Ainsi, à l’occasion
du paramétrage des progiciels de gestion intégrée, la sélection
des informations considérées comme utiles, les choix de leur
format, les ‘vues’ attribuées aux différents intervenants sont
fondées sur autant de décisions qui établissent ce qui serait de
l’ordre de l’utile et de l’inutile, dans un système d’acteurs et
des rapports de pouvoir qui contraignent fortement ce
processus de décision (Bazet, Mayère, 2005). De même, les
démarches de capitalisation des connaissances reposent-elles
sur ce même moment de simplification, en centrant l’effort de
formalisation sur les savoirs validés par la hiérarchie comme
étant susceptibles d’être ré - utilisés ultérieurement.
c) L’autonomisation correspond au processus par lequel
« l’action technique ‘autonomise’ le sujet », en interrompant la
rétroaction de l’objet vers l’acteur. L’identification de ce
moment est importante en cela qu’elle pointe le fait que la
posture et l’implication des futurs utilisateurs sont projetées,
préfigurées dans le processus même de la conception. Pour
Feenberg, la formalisation par la technique introduit une
distance entre les acteurs et les effets de leur action,
développant ainsi des relations fonctionnelles distanciées.
Ainsi dans la Gestion électronique de documents,
l’intervention d’un opérateur à un moment du processus peut
avoir des incidences à d’autres moments du processus de
traitement sans qu’elles soient connues de ceux qui les mettent
en œuvre, et sans que leurs auteurs soient identifiables, ne
serait-ce que du fait de la montée en puissance du caractère
collectif de l’écriture et de la production de documents ou de
systèmes de documents (Fauré, 2006). Les enjeux associés
portent notamment sur la responsabilisation dans la production
d’information ‘pour d’autres que soi’ (Mayère, Vacher, 2005),
et sur la question de la maîtrise du sens dans des processus de
plus en plus parcellisés (Bazet, 2006).
d) Le positionnement tient à ce que « l’action du sujet par
la technique ne consiste pas à modifier les lois qui régissent les
objets, mais à les utiliser à son avantage… En se positionnant
stratégiquement par rapport aux objets, le sujet utilise à son
profit leurs propriétés intrinsèques» (ibid, p195). Au plan de
ce qui règle le traitement de l’information, la quantification de
l’information s’inscrit dans la logique des propriétés des
machines numériques, en même temps qu’elle les conforte, et
qu’elle participe à l’évolution des représentations et des
pratiques des acteurs. En matière de communication
organisationnelle et de mobilisation des TIC, au plan des ‘lois
qui régissent les organisations’, ceci concerne notamment les
dispositifs socio-techniques contemporains qui mobilisent des
valeurs auxquelles il est difficile d’être opposé a priori
(comme la qualité) pour organiser l’enrôlement des acteurs. Ce
moment est inscrit dans une évolution historique, que certains
auteurs dans la lignée des travaux de Foucault désignent
comme relevant d’une transformation centrale dans la
conception de l’exercice du pouvoir, à travers des pratiques
complexes et multiples de ‘gouvernementalité’ qui prennent
appui sur un double mouvement de rationalisation et de
technicisation (Lascoumes, Le Galès, 2004).
Cette exploration des moments de ce que Feenberg appelle
l’instrumentalisation primaire participe à l’explicitation d’une
conception historique de l’évolution technique qui réintroduit
radicalement la question des enjeux de pouvoir et des
interactions entre conception et utilisation. C’est en effet
considérer l’évolution des TIC non pas du seul point de vue
des filières techniques, mais de leur participation à la
transformation des formes de production et d’échange, en
même temps que des processus d’individuation et de
l’évolution du lien social.
L’intégration de la technique, ou les moments et enjeux
d’une ‘re-territorialisation’
L’instrumentalisation primaire s’articule sur une
instrumentalisation secondaire qui contribue à l’intégration de
la technique dans son environnement naturel, technique et
social, et en assure le fonctionnement. Elle repose sur quatre
autres moments que sont la systématisation, la médiation, la
vocation et l’initiative. Pour rejoindre les catégories de
Giddens, elle s’inscrit dans une dynamique de reterritorialisation, au regard de la dé-territorialisation à laquelle
contribue l’instrumentalisation primaire.
a) « Pour fonctionner comme un dispositif concret, les
objets techniques isolés et décontextualisés doivent se
combiner et se réinscrire dans l’environnement naturel. La
systématisation est le processus qui consiste à produire ces
combinaisons et ces liens – dans les termes de Latour : à
‘enrôler’ des objets dans un réseau… Le processus de
systématisation technique est fondamental pour la constitution
des réseaux extrêmement complexes et étroitement associés
des sociétés technologiques modernes » (ibid, p 197).
Feenberg pointe le rôle prépondérant de la systématisation
dans les sociétés modernes qui prend appui sur le triomphe de
ce qu’il appelle les médias de coordination, à savoir, l’argent,
le pouvoir et la technique. Concernant les productions
d’information et activités de communication, la numérisation
d’un nombre croissant d’informations multimédia participe de
cette systématisation, en incluant dans des process de
traitement proches voire combinés ce qui relevait de métiers et
filières différenciés. Cette systématisation concerne également
une acculturation à la production de documents numérisés, et
des méthodes d’élaboration, de traitement, de classement de
l’information. Elle relève d’une rationalisation cognitive, dont
les travaux en communication organisationnelle ont commencé
à explorer les dimensions et implications (Bouillon, 2005 ;
Loneux, Bourdin, Bouillon, 2005). Au plan des modalités
d’appropriation des outils techniques, il est possible de
rattacher ce moment au processus de banalisation et
d’hybridation identifié par Mallein et Toussaint dans ce qu’ils
appellent la rationalité de la cohérence socio-technique (1994).
b) « Les médiations morales et esthétiques confèrent à
l’objet technique simplifié de nouvelles qualités secondaires
qui l’intègrent durablement dans son nouveau contexte social »
(ibid, p 197). En matière de TIC, les travaux de V. Scardigli
ou de Ph. Breton ont exploré l’attribution de valeurs
génériques associées aux NTIC (Scardigli, 1992, 2001 ;
Breton, 1992). L. Sfez a relevé combien « toute technique
spécifique délivre un schéma plus ou moins complexe où, pour
une société donnée, se lisent, comme à livre ouvert, les
craintes, les désirs, les projets et la hiérarchie des buts
poursuivis » (Sfez, 1990, p 31). S. Pène, étudiant le cas des
TICE, interroge la façon dont les sciences humaines et
sociales, et plus spécifiquement les SIC, sont convoquées pour
produire ce qui dans les termes de Feenberg relève de ces
médiations, sans que puissent être mis en cause les choix
antérieurs intervenus en conception (Pène, 2006).
c) Pour Feenberg, « le contrôle stratégique de l’ouvrier et
du consommateur exercé par le processus de positionnement
est dans une certaine mesure compensé par diverses formes
d’initiative tactique de la part des individus soumis à ce
contrôle technique » (Feenberg, ibid, p 198). La sociologie des
usages s’est en bonne part centrée sur ce moment, mais de
façon en bonne part a-historique. Or, pour Feenberg, « c’est le
32
33
capitalisme qui a conduit à la séparation tranchée entre le
positionnement et l’initiative, la stratégie et la tactique » (ibid).
Il importe d’interroger la fabrique de cette séparation, son
évolution dans le temps, dans les lieux, formes et moments de
production de ces marges de manœuvre, dans les acteurs
concernés, les activités en cause. L’évolution des TIC, en
élargissant le domaine du paramétrable et de l’adaptable,
déplace les limites d’intervention potentielle des acteurs. En
même temps, l’acculturation de plus en plus diffuse aux
discours et pratiques de la technique contribue à mettre en
forme l’initiative des utilisateurs.
Réarticuler ce moment de l’initiative aux autres moments
permet d’aller plus loin dans la compréhension du changement
social, organisationnel et des pratiques, en se dégageant de la
seule perspective du rapport singulier d’un utilisateur ou
groupe d’utilisateurs avec une technique particulière.
d) A travers le moment dit de ‘vocation’, Feenberg veut
désigner « la rétroaction des outils sur leur utilisateur » (ibid, p
198). Dans son travail avec l’objet technique, le sujet est
engagé tout aussi profondément que l’objet. L’acteur est
transformé par ses actes : le tireur « deviendra chasseur, avec
les attitudes et les dispositions correspondantes… de la même
façon que l’ouvrier qui travaille le bois devient un charpentier,
la dactylo à son clavier une rédactrice » (ibid). Feenberg
rejoint en cela la pensée de Simondon sur le rôle de la
technique comme intrinsèquement partie prenante du
processus d’individuation (Simondon, 2005). Avec Simondon,
il n’y a pas d’individus tout faits, indivisibles, mais des
processus d’individuation, qui mettent à l’œuvre un principe
d’inséparabilité : « aucun ‘individu’ n’est isolable comme tel,
il doit être compris comme emporté dans un processus
permanent d’individuation qui se joue toujours à la limite
entre lui-même et son milieu » (Citton, 2005, p2). Pour
Simondon, le régime d’information participe à définir le degré
d’individualité. Le renouveau de l’intérêt porté à ses travaux
est en relation directe avec les enjeux concernant les mutations
sociales contemporaines et le rôle des TIC dans les
organisations et plus largement dans la société.
Une mise en dialogue plus approfondie entre le cadre
d’analyse proposé par Feenberg et les travaux de Simondon
nous semble constituer une orientation heuristique pour une
intelligence renouvelée de ce que nous faisons aux TIC et de
ce qu’elles nous font. En cela, cette contribution est encore
partielle, mais elle se situe en convergence avec des
orientations en émergence, et de nombreuses réflexions et
débats, comme ceux intervenus lors du Congrès de la SFSIC à
Bordeaux en Mai 2006.
Une urgence à penser des mutations actuelles profondes
Le dépassement des limites des cadres d’analyse
prédominants
nous
semble
particulièrement
requis
actuellement. En effet, la conception et les formes de
mobilisation actuelles des TIC contribuent à ce que nous
proposons de désigner comme la fabrique d’une
interchangeabilité organisationnelle, à travers celle des
dispositifs d’information – communication (Mayère, 2006). Le
principe de commutation, repris par S. Craipeau (2001), conçu
comme capacité à établir des interactions efficaces entre
composantes organisationnelles, peut être envisagé comme
constituant une étape-clé de cette fabrique de
l’interchangeabilité.
Cette évolution est en phase avec la maturation du modèle
économique contemporain, et plus particulièrement avec ce
qu’il mobilise comme formes renouvelées de pilotage et de
contrôle, comme exigences de flexibilité organisationnelle et
de compétitivité transversale. De tels enjeux sont liés à la
dynamique globale de globalisation des rapports de production
et d’échange et de financiarisation des économies. En cela
cette question articule étroitement évolutions sociétales et
organisationnelles. Ce n’est évidemment p
as dénier que
sa mise en œuvre dans telle ou telle organisation présente des
formes spécifiques, liées à l’histoire de cette organisation et
des groupes professionnels qui y travaillent, à son activité, à
son rapport au marché, à ses formes d’insertion dans son
environnement, etc. Mais la nécessaire prise en compte de la
contingence tant au plan des organisations que des pratiques
des acteurs ne peut justifier de renoncer à spécifier des
évolutions convergentes à un niveau plus global.
L’identification d’un idéal-type ou d’une orientation
structurante n’a jamais prétendu annihiler la diversité du
social.
Le questionnement ici proposé concerne également la
dimension des pratiques de travail de l’information et de
communication. Mais, comme suggéré précédemment, la
question-clé n’est pas celle de l’appropriation des TIC, ou pas
seulement en soi. Elle est celle de l’acculturation aux formes
de relations professionnelles et de construction identitaire
promues, soutenues, favorisées par la configuration
contemporaine des organisations et dispositifs d’information –
communication, dans une société en forte évolution (Aubert,
2003 ; 2004).
Feenberg parle de ce processus qui consiste à ‘démondaniser’ les objets naturels pour en faire des objets
techniques. Comme relevé précédemment, cette conception
est, par bien des aspects, proche de celle que formule A.
Giddens en termes de déterritorialisation – reterritorialisation,
et qu’il identifie comme caractéristique de la modernité
(1994). Il s’agit à travers ce cadre d’analyse des TIC de
spécifier les modalités par lesquelles se construit dans les
organisations la prédominance de l’intégration systémique,
fondée sur des relations médiatisées, sur l’intégration sociale,
basée sur des relations de co-présence. Dans le cadre de cette
mutation à la fois sociale et organisationnelle, la question
posée est celle d’une mutation anthropologique, question vers
laquelle convergent plusieurs travaux (de Saint-Laurent,
2004 ; Dubey, 2001). Ce qui nous semble pouvoir être
identifié comme une mutation anthropologique repose
notamment sur l’acculturation à l’élaboration de relations avec
des autrui absents, sur la production de confiance dans des
systèmes experts, et sur la construction de disponibilité (Pène,
2005).
Il importe d’aller plus avant dans l’explicitation des
modalités par lesquelles l’instrumentation primaire et
secondaire des TIC participe à ces transformations, en même
temps que la conception des TIC est travaillée par ces
évolutions des rapports de production et d’échange. Nous
avons tenté dans cette communication de poser des premiers
jalons permettant de situer en quoi le cadre d’analyse ici
esquissé peut aider à spécifier certains des éléments - clé des
dynamiques à l’œuvre.
Bibliographie :
Aubert N.(dir), 2004, L’individu hypermoderne, éd. érès, 316p.
Aubert N., 2003, Le culte de l’urgence, la société malade du temps,
éd. Flammarion, 375p.
Bazet I., 2006, « De l’informatisation des processus au travail
informationnel en miettes », Colloque International Pratiques et
usages organisationnels des sciences et technologies de l’information
et de la communication, Rennes.
Bazet I., Mayère A., 2004, « Entre performance gestionnaire et
performance industrielle, le déploiement d’un VRP », Sciences de la
Société, n°61, pp 107-121
Bazet I., Mayère A., 2005, ERP and the capitalization of information
production process and kills, 1rst Bi-annual European Conference
ICT, the Knowledge Society and Changes in Work, The Netherlands,
Den Haag, juin
http://www.nwo.nl/nwohome.nsf/pages/NWOP_6CSCL9/$file/ICT_M
ayere.pdf
33
34
Bouillon J.L., 2005, « Autonomie professionnelle et rationalisation
cognitive : les paradoxes dissimulés des organisations postdisciplinaires », Etudes de communication, n°28, pp 91-105
Breton Ph., L’utopie de la communication, éd La découverte, 1992.
Citton Y., 2005, « Sept résonances de Simondon », consulté le
30.05.06,
http://multitudes.samizdat.net/Sept-resonances-deSimondon.html
Craipeau S., 2001, L’entreprise commutante. Travailler ensemble
séparément, éd. Lavoisier.
Feenberg A., 2004, (Re)penser la technique, éd. La Découverte,
MAUSS, 230p
Dubey G., 2001, Le lien social à l’ère du virtuel, PUF, 2001
Fauré B., 2006, Les activités de production de l’information
budgétaire : Communications organisationnelles et régulations dans
une entreprise de BTP, thèse soutenue à l’Université Toulouse 2,
Juin
Giddens, A.,1994, Les conséquences de la modernité, éd.
L’Harmattan
Jouët J., 2000, Retour critique sur la sociologie des usages, Réseaux,
n°100, pp 399 – 521
Kolmayer E., Peyrelong M.F., 1999a, Partage de connaissances ou
partage de documents ?,
consulté le 13.02.06, http://archivesic.ccsd.cnrs.fr/sic-00000100.html
Kolmayer E., Peyrelong M.F., 1999b, « L’émergence du document
dans un processus de capitalisation des connaissances »,
communication aux journées Org&Co de la SFSIC, Aix-en-Provence,
juin, http://archivesic.ccsd.cnrs.fr/sic_00000108.htm, consulté le
28.2.06
Lascoumes P. Le Galès P.(dir), 2004, Gouverner par les instruments,
Presses de la Fondation Nationale des Sciences Politiques.
Loneux C., Bourdin S., Bouillon J.L., « Building the field of
organizational communication in France: concepts, methods,
institutions », First European Communication Conference, Nov,
Amsterdam, pp 24-26.
Mallein
P., Toussaint Y., 1994, « L’intégration sociale des
technologies d’information et de communication : une sociologie des
usages », TIS, n°6 (4), p315-335
Mayère A., 2006, Les activités de communication et de production
d’information dans les organisations. Apports et enjeux de la
recherche en SIC Actes du XVème Congrès des SIC, SFSIC,
Bordeaux, pp 431 - 445.
Mayère A., Vacher B., 2005, « Le slack, la litote et le sacré », Revue
Française de Gestion, hors série Dialogues avec James March, pp 63
- 86
Pédauque, 2003, Document : forme, signe et médium, les reformulations du numérique,
consulté le 13.02.06, http://archivesic.ccsd.cnrs.fr/sic-00000511.html
Pène S., "Vers une société de disponibilité ?". Immageson.org, 15
avril 2005 [En ligne]
consulté le 13.02.06, http://www.imageson.org/document621.html
Pène S., 2006, « Les SIC et les TIC. Demandes institutionnelles ou
besoins sociaux ? », Actes du XVème Congrès des SIC, Bordeaux, pp
503 – 510.
Scardigli V., 1992, Les sens de la technique, PUF
Scardigli V., 2001, Un anthropologue chez les automates, PUF,
244p.
Sciences de la Société, 2004, dossier : Systèmes d’information
organisationnels, n°63
Sciences de la Société, 2004, dossier : Le mythe de l’organisation
intégrée, n°61
Sfez L., 1990, Critique de la communication, éd.du Seuil
Simondon G., 2005, L'individuation à la lumière des notions de
formes et d'information, éd. Jérôme Million.
De l’extension illimitée des études d’usages.
Quelques remarques.
Jean-Max Noyer,
Université de Paris 7
[email protected]
Le milieu.
1 - La création continuée du monde a pris aujourd’hui un
caractère plus dramatique.
La Performation du monde, des mondes, est une affaire
complexe et incertaine et l’exploration des processus de
différenciation de la sphère bio-politique, des agencements
techno-politiques, des couplages hommes-machines fait venir
au devant de nous des problèmes d’une ampleur sans
précédent. Cette Performation est, en tous cas, consommatrice
insatiable d’énergies, d’écritures, de récits, de narrations, de
normes, d’objets techniques semblent nous contraindre à
penser et agir sous les contraintes de la créativité. Finalité sans
fin ? Peut-être.
A grands frais, nous n’avons de cesse de produire des
niches écologiques, éco-cognitives, des nouveaux modes de
propagations des puissances psychiques, nous n’avons de
cesse de produire des processus contraignants d’équilibration,
maintenant les passions et les relations structurales d’hostilité
dans des limites acceptables. Nos états métastables sont
menacés en permanence d’autodestruction.
De nouvelles subjectivités viennent troubler les modes de
régulation politiques et organisationnels. Des agencement
inédits d’ affects et de percepts peuplent peu à peu le monde et
ouvrent vers des explorations des dimensions intensives du
temps, des devenirs bio-politiques.
Le développement des sémio-politiques et des biopolitiques en cours, parce qu’elles frayent la voie à une
« expérimentation qui fait règle, qui est à soi-même sa propre
règle, expérimentation généralisée qui a pour objet les
pouvoirs agençant la vie plutôt que des propriétés globales ou
spécifiques du vivant, (...) qui engendre de manière immanente
ses propres critère », à une expérimentation généralisée qui a
pour objet les pouvoirs agençant l’écriture, la mémoire, les
formes organisationnelles, le développement de ces sémiopolitiques…tend donc à masquer la différenciation des forces
politiques mises en mouvement, la redistribution, encore
souterraine, des rapports de production.
Et ce d’autant que les réseaux d’actants qui en sont les
maîtres d’œuvre dominent les représentations technoidéologiques qui en donnent ou sont susceptibles d’en donner
les lisibilités générales.
« Une politique devient réellement expérimentale et
l’expérimentation relaie enfin le concept marxiste de la
“pratique”, lorsque la distinction des objets, des moyens, des
matières premières et des produits s’efface dans celle
différentielle, des méthodes, dans la généralisation et le
triomphe des moyens, lorsqu’on a compris qu’il n’y a plus de
contradictions dans les choses. Une stratégie généralisée met
en rapport différentiel et détermine l’un par l’autre dans une
“chaîne machinique continue”, mais en dehors de toute fin
éthique ou scientifique les procédés théoriques ou non du
34
35
pouvoir ».
Sous les conditions de cet horizon, qui serait selon certains
indépassable, mais qui selon nous rate la différenciation
anthropologique, politique en cours et qui, en contrepoint, ne
peut penser à son tour la question des fins, c’est-à-dire la
question du politique que sous les conditions de la
transcendance et d’un universel totalisant et totalitaire, les uns
pleurent la disparition des schèmes et dispositifs de régulation
hérités du marxisme, les autres célèbrent l’avènement du
libéralisme auto-organisationnel héritier d’A. Smith.
Plus que jamais, l’ensemble des réseaux capitalistes
aujourd’hui est au coeur d’un vaste système de couplages
hétérogènes et hiérarchiquement enchevêtrés entre « les divers
types de machinismes : machines techniques, machines
d’écriture économiques, mais aussi machines conceptuelles,
machines religieuses, machines esthétiques, machines
perceptives, machines désirantes... »
2 - Dans ce contexte, Étudier des usages, des pratiques peut
avoir plusieurs motifs.
1-
2-
Accroître les visibilités des co-déterminations , des
co-différenciations des systèmes hommes-techniques,
afin de produire et d’améliorer sans cesse les moyens
de pilotage sémiotique nécessaires à l’orientation des
productions, des besoins, des innovations.
Rendre plus « maîtrisable » les mises en acceptabilité
des innovations et des créations, loin des équilibres.
(Ici se loge, au passage, la question centrale du désir / des
besoins/ du manque, de leur rapport.) Du fantasme de contrôle
continu de la Réalité, comme problème.
3-
Accroître les visibilités concernant les différentes
pragmatiques participant de l’auto-constitution
ontologique du sujet à partir de ses objets, des
médiations, des couplages structurels « cerveaux /
corps / médiations / techniques / mondes ».
4-
Accroître les visibilités concernant les processus
d’altération-création qui affectent et explorent les
couplages dans leurs devenirs.
5-
Dans le cadre des approches qui s’efforcent de
penser les phénomènes socio-cognitifs, les
intelligences collectives, améliorer les descriptions
d’agencements complexes et des dynamiques dont ils
sont l’expression et l’exprimé. Pour mieux
comprendre les conditions de production /circulation
des avoirs.
Nous ne prétendons pas ici, être exhaustifs.
3 - Les études sur les usages et les pratiques (il faudrait voir
quelles sont les différences portées par ces deux termes) se
différencient par les modes description, par les motifs de
« contrôle du contexte », par les problèmes que portent les
descriptions.
Pour reprendre rapidement Jean-François Lyotard.
« Le contrôle du contexte… pourrait valoir comme
une sorte de légitimation. Ce serait une légitimation par le
fait. L’horizon de cette procédure est celui-ci : la « réalité »
étant ce qui fournit des preuves pour l’argumentation
scientifique et les résultats pour les prescriptions et les
promesses d’ordre juridique, éthique, politique, on se rend
maître des unes et des autres, en se rendant maître de la
« réalité », ce que permettent les techniques. En renforçant
celles-ci on renforce la réalité, donc les chances d’être juste
et d’avoir raison. Et réciproquement on renforce d’autant
mieux les techniques que l’on peut disposer du savoir
scientifique et de l’autorité décisionnelle »
Les études d’usages se trouveraient ainsi au coeur
de la transformation des modes de légitimation, au cœur de
« la légitimation par la puissance.
« Celle-ci n’est pas seulement la bonne performativité,
mais aussi la bonne vérification et le bon verdict. Elle légitime
la science et le droit par leur efficience, et celle-ci par ceux là.
Elle s’autolégitime comme semble le faire un système réglé
sur l’optimisation de ses performances. Or c’est précisément
ce contrôle sur le contexte que doit fournir l’informatisation
généralisée. La performativité d’un énoncé, qu’il soit
dénotatif ou prescriptif, s’accroît à proportion des
informations dont on dispose concernant son référent. Ainsi
l’accroissement de la puissance et son autolégitimation,
passe à présent par la production, la mise en mémoire,
l’accessibilité et l’opérationnalité des informations ».
Ceci pose un certain nombre de problèmes.
D’une manière générale, les études d’usages, se font dans
cet horizon où la performativité des procédures, et la maîtrise
du contexte (du milieu associé ? de ce qui est perçu comme
milieu associé, au sens de Simondon), semblent l’emporter. Et
pourtant les usages forment le socle « contre, tout contre
lequel » les questions de la métastabilité, de la création de la
durée ainsi que des devenirs, ne cessent de s’actualiser.
Car tout usage est événement. De cela il faudrait
tenter de tirer les conséquences. Or il y a un après-coup radical
des études d’usages qui en général viennent toujours trop tard,
en tous cas après la création et au milieu des devenirs. Comme
s’il s’agissait de « refroidir » les mouvements de désir, de
création et d’altération, singuliers / collectifs, qui parcourent
ce que l’on pourrait appeler le « plan d’immanence doxique »
des usages. Les usages constituant un plan d’immanence
politique où le « sens commun » ne cesse de résister et de
créer, de faire monter des devenirs minoritaires au milieu des
puissances qui performent.
4 - De quelques problèmes spécifiques
Les débats sont nombreux, les affrontements théoriques
sévères qui constituent cet pratique de recherche.
S’il est bien un domaine où, parme d’autres la question de
la transdisciplinarité se pose, c’est bien celui des usages.
L’objet, ou plutôt les objets de recherche sont nombreux,
parfois mal définis, toujours complexes. Les actants impliqués
sont très hétérogènes. Ce sont toujours des mixtes, des
hybrides, des composites qui sont en jeu, des agencements
collectifs d’énonciation couplés avec des « équipements
collectifs de subjectivation » . Des systèmes hommes-machines
couplés avec des discours…“
Il nous faut donc en revenir à cette évidence simple, mais
combien lourde de conséquences, pour la mise en œuvre et la
légitimation de dispositifs d’analyse, à savoir que « les
agencements sociaux concrets, (…) mettent en cause bien
d’autres choses que des performances linguistiques : des
dimensions éthologiques et écologiques, des composantes
sémiotiques
économiques,
esthétiques,
corporelles,
fantasmatiques, irréductibles à la sémiologie de la langue, une
multitude d’univers incorporels de référence, qui ne s’insèrent
pas volontiers dans les coordonnées de l’empiricité
dominante… » .
4.1 - Il est toujours difficile délimiter les objets d’études et
de légitimer cette fermeture. Les types de causalité sont
souvent enchevêtrés, et les médiations multiples. Plus encore,
35
36
suivant les niveaux d’échelle où l’on examine ces
phénomènes, les régimes de fonctionnement, les couplages
entre les différents actants (au sens de Latour) ne sont pas de
même nature. À tel niveau, les modes propagation des
puissances psychiques relèvent de logiques probabilistiques, à
tel autre, de type symbolique, les logiques relèvent de modes
causaux différents. Tout au long des chaînes d’acteurs-réseaux,
en acte, les processus de traduction et d’altération sont
compliqués. Enfin, au cours des actions engagées, chaque
mouvement, procédure, pratique, au niveau où ils opèrent, non
seulement produisent des effets sur leur propre milieu associé,
mais affectent, le plu souvent de manière “ aveugle ”, les
autres niveaux où opèrent d’autres acteurs-réseaux…
Ce sont des multiplicités hétérogènes qui sont à l’oeuvre,
chaque action faisant évoluer, de manière plus ou moins forte,
les règles de fonctionnement qu’elles se sont données ou
qu’on leur a donné, proposé, imposé, et où parfois les actions
changent pour tel ou tel contexte, les règles de fonctionnement
d’interprétation, à un autre niveau.
Dans le cas de la disruption des nouvelles technologies de
l’information, communication, des technologies éducatives
numériques, les usages impliquent donc des actants de plus en
plus en plus hétérogènes. La construction des objets d’analyse,
là plus qu’ailleurs, pose problème. Usage de tel ou tel logiciel,
de tel ou tel tutoriel, de tel ou tel moteur de recherche, de tel
ou tel outil de simulation, de tel ou tel objet, ce sont bien des
mondes, fussent-ils “ micro ”, qui se mettent en branle, parlent
et se parlent, produisent des effets et se transforment en se
mettant en mouvement.
Ces co-déterminations, ces couplages structurels, ces
autopoïèses enlacées, aux autonomies relatives et parfois
incertaines, entre des systèmes hommes-techniques plus ou
moins complexes, voilà ce dont il y a usages, voilà ce qui
travaille, désire, agit. Et les individus de ne cesser de faire
l’expérience d’eux-mêmes sous des conditions métastables ou
bien instables.
Ce qu’il faut savoir observer, décrire, analyser, interpréter,
ce sont des fragments de ces dynamiques, des parties de ces
imaginaires, des éléments de ces désirs, de ces vies.
C’est la raison pour laquelle, nous ne devons avoir aucun
préjugé ontologique sur l’importance des actants qui sont en
jeu . Ou en tout cas, nous devons être capables de justifier les
hiérarchies de ces actants que nous prétendons observer,
analyser, quantifier, dont nous prétendons observer, analyser le
devenir ontologique, à travers leur auto-constitution, plus ou
moins précaire, à partir d’autres objets, d’autres médiations,
d’autres actants, qu’ils utilisent…
De ce point de vue, les débats théoriques ou autres,
concernant notre devenir bio-techno-politique, sont essentiels.
Ils déterminent pour partie, mais une part essentielle, ce qui va
être observé, pris en compte, les manières dont allons traiter et
analyser les ensembles de traces laissées par les actants au
cours de leur activité, leurs modes d’interaction, de circulation,
de propagation, de trans-formation… Selon ce point de vue,
on pourrait dire qu’il n’y a pas de société de l’information
mais, des séries plus ou moins hétérogènes de transformations, expression et exprimé des actants, des dispositifs
qui les portent et les font vivre.
Cela signifie qu’en ce qui concerne les couplages hommesmédiations, il nous faut sans cesse relever les traces laissées au
cours de leurs pratiques, par les actants couplés
structurellement,
c’est-à-dire
en
co-déterminations
réciproques, tout en leur laissant une autonomie relative. Ces
couplages sont très nombreux et hétérogènes et la question des
niveaux d’échelle est ici essentielle.
Qu’il s’agisse de pratiques collectives distribuées, de
pratiques individuelles, nous avons donc affaire, toujours, à
des multiplicités, des collectifs, à des différenciations ouvertes
des logiques associatives, analogiques, à ce qui constitue les
actes élémentaires tels : assembler, relier, trier, classer,
inscrire, jouer, fabriquer…
Pour mieux définir les protocoles d’observation des
usages, nous avons donc besoin d’un concept qui nous
permette d’appréhender la richesse des couplages évoqués plus
haut. Ce concept, c’est celui de machine.
« Le principe de toute technologie est de montrer qu’un
élément technique reste abstrait, tout à fait indéterminé, tant
qu’on ne le rapporte pas à un agencement qui le suppose. Ce
qui est premier par rapport à l’élément technique c’est la
machine : non pas la machine technique qui est elle-même un
ensemble d’éléments, mais la machine sociale ou collective,
l’agencement machinique qui va déterminer ce qui est élément
technique à tel moment, quels en sont l’usage, l’extension, la
compréhension… » .
Nous suivons ici Pierre Lévy dans son commentaire.
« Une machine organise la topologie de flux divers,
dessine les méandres de circuits rhizomatiques. Elle est une
sorte d’attracteur qui recourbe le monde autour d’elle. En
tant que pli pliant activement d’autres plis, la machine est au
plus vif du retour de l’empirique sur le transcendantal. Une
machine peut être considérée, en première approximation
comme appartenant à telle strate physique, biologique,
sociale, technique, sémiotique, psychique, etc, mais elle est
généralement trans-stratique, hétérogène et cosmopolite ”.
(…)
“ Une machine est un agencement agençant, elle tend à se
retourner, à revenir sur ces propres conditions d’existence
pour les reproduire ”. (…)
“ On ne se représentera donc pas des machines
(biologiques, sociales, techniques, etc) “objectives” ou
“réelles”, et plusieurs “points de vue subjectifs” sur cette
réalité. En effet, une machine purement objective qui ne serait
portée par aucun désir, aucun projet, qui ne serait pas
infiltrée, animée, alimentée de subjectivité, ne tiendrait pas
une seconde, cette carcasse vide et sèche s’effriterait
immédiatement. La subjectivité ne peut donc être cantonné au
“point de vue” ou à la “représentation”, elle est instituante et
réalisante ».
À cet égard, les discours sur les usages, quels qu’ils soient,
doivent être pris dans leur entière et pleine positivité, non pas
comme discours d’accompagnement, mais comme élément
constitutif de la « machine collective » qui donne sens à
l’élément technique. Ils « performent » le monde et participent
de notre auto-expérimentation, symbolique, imaginaire, réelle.
« … Les machines ne sont ni purement objectives ni
purement subjectives.
La notion d’élément ou d’individu ne leur convient pas
non plus, ni celle de
collectif, puisque la collection suppose l’élémentarité et
fait système avec elle.
Comment alors penser la composition des machines ?
Chaque machine possède une qualité d’affect différente, une
consistance et un horizon fabulatoire particulier, projette un
univers singulier. Et pourtant elle entre en composition, elle
s’associe avec d’autres machines. Mais sur quels modes ? ».
(…)
“ Nous faisons l’hypothèse qu’il n’existe aucun principe
général de composition, mais qu’au contraire, chaque
agencement machinique invente localement son propre mode
de communication, de correspondance, de compossibilité ou
d’entrelacement de l’autopoïèse (pôle identitaire) et de
36
37
l’hétéropoïèse mutuelle (pôle associatif). Distinguons cinq
dimensions de la machine : une machine est directement
(comme dans le cas de l’organisme) ou indirectement (dans la
plupart des cas) autopoïétique (Varela), ou autoréalisatrice
(comme on parle d’une prophétie autoréalisatrice) c’est-àdire qu’elle contribue à faire durer l’événement du pli qui la
fait être. Une machine est exopoïétique : elle contribue à
produire un monde, des univers de significations. Une
machine est hétéropoïétique, ou fabriquée et maintenue par
des forces du dehors, car elle se constitue d’un pli. L’extérieur
y est toujours déjà présent, à la fois génétiquement et
actuellement. Une machine est non seulement constituée par
l’ extérieur (c’est le repli du pli), mais également ouverte sur
le dehors (ce sont les bords ou la béance du pli). La machine
s’alimente, elle reçoit des messages, elle est traversée de flux
divers. En somme la machine est désirante. À cet égard, tous
les agencements, tous les branchements sont possibles d’une
machine à l’autre. Une machine est interfaçante et interfacée.
Elle traduit, trahit, déplie et replie pour une machine aval, les
flux produit par une machine amont. Elle est elle-même
composée de machines traductrices qui la divisent, la
multiplient et l’hétérogénéisent. L’interface est la dimension
de “politique étrangère” de la machine, ce qui peut la faire
entrer dans de nouveaux réseaux, lui faire traduire de
nouveaux flux. Toute machine possède les cinq dimensions,
mais à des degrés et dans des proportions variables ».
4.2 - Ceci nous donne des indications fortes quant à
l’ampleur des traces, des indices que nous devons relever,
traiter, penser, lorsque nous sommes conduits à observer les
usages de tel ou tel individu, de telle ou telle entité.
La détermination du ou des corpus est alors, déterminante.
Il ne s’agit pas seulement d’une affaire quantitative. Il
convient de se mettre en situation de pouvoir décrire, penser,
les actions, les usages comme des processus et donc
impliquant la “traversée” de plusieurs mondes, niveaux,
échelles. C’est-à-dire, la traversée d’un plus ou moins grand
nombre d’acteurs-réseaux, d’actants, (au sens encore une fois
de Bruno Latour, Michel Callon). Chaque entité, acteur se
trouvant toujours, au terme de processus d’indentification et
de différenciation plus ou moins complexes, « à la traversée”
de ces chaînes, de ces flux. “ Il faut donc se lancer dans la
lecture fiévreuse de tous ces intermédiaires, qui passe dans nos
mains, dans celles des artefacts, des textes… des corps
disciplinés … » .
De ce point de vue, nous ne devons donc accorder aucun
privilège (a priori) à tel ou tel actant, à tel ou tel mode
d’association, de traduction. Il convient donc de partir « de ce
qui circule (afin d’être) conduit … à ce qui est décrit par ce
qui circule. Le verbe décrire est à prendre dans son double
sens : “description ” littéraire du réseau inscrit dans
l’intermédiaire considéré, qu’il s’agisse de textes, de
dispositifs, de compétences incorporées ; descriptioncirculation de l’intermédiaire (dans le sens où l’on dit qu’un
missile décrit une trajectoire) qui n’est possible… que si le
réseau inscrit coïncide avec le réseau rencontré,
éprouvé…) ». .
Étudier les usages suppose donc de pas se laisser enfermer,
sans conscience ni raison, dans une sémiotique spécifique, un
niveau d’échelle particulier .
Les usages sont des événements où convergent des lignées
temporelles hétérogènes, des forces, portées par des chaînes
d’actants, humains et non-humains, des sémiotiques qui
opèrent tantôt au niveau symbolique, tantôt au niveau infralinguistique, tantôt encore à même des corps disciplinés ou
indisciplinés, tantôt au niveau de tel ou tel élément technique.
Ces convergences peuvent se stabiliser, mais elles peuvent
aussitôt se dissoudre, imploser en de souterraines vibrations
volcaniques ou bien exploser vers d nouvelles connexions et
attractions… en des tactiques, stratégies parfois, qui sont
l’expression et l’exprimé des processus d’adoption et de rejet,
de transformation et d’invention, de tel ou tel dispositif.
D’une manière générale, les usages qui impliquent
Internet, (pour prendre un exemple)
certaines de ses
fonctionnalités, sont de plus en plus marquées par la
singularité, la proximité, e voisinage. Ils sont de plus en plus
intégrés, au milieu des autres dispositifs d’écriture et de
lecture, et se différencient à partir du creusement des pratiques
interprétatives toujours singulières et convoquant des univers
de référence spécifiques. Certes les dimensions des collectifs
convoqués, à l’occasion des ses pratiques ont changé.
Toutefois, l’histoire des pratiques intellectuelles, des pratiques
cognitives, montrent que la tendance est, après le saut
quantitatif, au sur mesure, à la personnalisation…
Si le réseau Internet a, d’un certain point de vue, une
prétention universelle, cette prétention est tout à fait théorique.
Pour le dire autrement, personne n’ a besoin de la totalité des
informations et savoirs qui sont là, proposés. Ce qui se joue,
en réalité, c’est à partir de nos micro-mondes, de nos
subjectivités, la possibilité de creusement intensif de capacités
cognitives, perceptives et affectives, par “ multiplication plus
ou moins maîtrisée des points de contacts internes et externes
”, des processus de traduction, altération, des systèmes de
propagation . Les corpus doivent donc prendre en compte les
traces qui expriment à la fois l’hétérogénéité des actants, des
intermédiaires, des forces, des associations, des temporalités
( et des rapports de vitesse et de lenteur), des modes de
causalité, d’interaction, de traduction-création-invention au
coeur même des hiérarchies enchevêtrées, dynamiques plus ou
moins stables, constitutives des conditions d’actualisation des
pratiques.
Une fois constitués de tels corpus, vient le problème de
leurs traitements. Et là surviennent d’autres débats.
Débats théoriques, on l’a déjà souligné, débats sur les
méthodes aussi. Comment éviter, autant que faire se peut,
d’importer des schèmes normatifs, figeant des processualités
pourtant toujours ouvertes et créatrices, des événements, dont
la pleine et entière positivité doit être conservée, préservée à
tout prix ?
Bien évidemment, les études sur les usages n’ont pas la
plupart du temps cette visée, à savoir, être au milieu du
champ d’immanence.
C’est plutôt du côté des études et recherches menées au
sein des sciences de la cognition et de la cognition distribuée,
de l’éthnométhodologie, de l’anthropologie, de la sociologie
critique… que l’on trouve un intérêt majeur à affronter ces
incomplétudes, à se doter de systèmes d’observation et
d’écriture, de dispositifs expérimentaux et de simulationmodélisation, adéquats.
Il serait de ce point de vue particulièrement instructif, de
pouvoir discuter d’un certain nombre de critères, qui
permettraient de différencier parmi les études d’usages celles
qui ont, traditionnellement tendance à occuper un espace qui
les situe, au coeur même de la performation, politique et
économique du monde en produisant des cartes et des
classifications sous et pour les conditions structurales de
visibilité d’organisations « amont », et celles qui tentent de se
situer au milieu des hyperpragmatiques, des usages entre
routines et création / altération, entre répétition et devenir.
Sans s’interdire d’en penser les hybridations et les
résonnances.
37
38
Notes et Bibliographie
M. Callon, La dynamique des réseaux techno-économiques, CSI, Paris
M. Callon “Éléments pour une sociologie de la traduction. La
domestication des coquille Saint-Jacques et des marins pêcheurs en
baie de Saint-Brieuc“, L’Année sociologique, Vol 36 1986.
Michel de Certeau, L'Invention du quotidien, t.I. Arts de faire, Paris
1980 ; L'Invention du quotidien, t.II. Habiter, cuisiner, Paris 1980.
Luce Giard, Paris , Gallimard, Folio Essais, 1990.
Gilles Deleuze, Felix Guattari, Mille plateaux, Paris, Éditions de
Minuit, 1981.
François Dagognet, Les outils de la réflexion, Institut Synthélabo,
paris 1999
Felix Guattari, et Eric Alliez (1983), “ Le capital en fin de compte :
systèmes, structures et
processus capitalistiques ”, Change
International, n° 1.
Félix Guattari, Cartographies schizoanalytiques, Paris, Éditions
Galilée, 1989.
Michael Hardt, Antonio Negri, Empire, Exils Éditeur, Paris 2000
François Laruelle, (1981), “ Homo ex Machina ”, Revue de
Métaphysique.
Bruno Latour, Les microbes, Guerre et Paix, suivi de Irréductions,
Paris, Éditions Métailié, 1984.
Jean François Lyotard, La Condition Postmoderne, Éditions de minuit,
Paris 1979
Bernard Stiegler, La Technique et le Temps, (Tomes 1, 2, 3), Éditions
Galilée, Paris, 1994, 1996, 2000
Revue « Traverses » N° 26, Rhétoriques de la technologie, Éditions
de Minuit, Paris 1982
L’Outre-Lecture, Manipuler, (s’) appropier, Interpréter le Web, in
Études et Recherches, Centre Pompidou, Paris, 2003
COMMUNICATIONS POUR LES ATELIERS
Individus et usages des TIC à l’articulation du privé et du professionnel
ANCA BOBOC et Laurence DALHEINE
L'entreprise fait face, depuis plusieurs années, à une
intensification des contraintes qu'elle doit gérer pour rester
compétitive sur son marché. Cela se traduit autant au niveau
organisationnel, qu'économique et social. "Les frontières de
l'entreprise sont devenues beaucoup plus floues et
changeantes dans le but de s'adapter et se reconfigurer en
permanence au gré des évolutions de la demande."8 On parle
ainsi d'entreprise éclatée, notamment pour caractériser la
généralisation des situations de travail sur lieux multiples. Le
salarié devant être au plus près des clients, il est de plus en
plus sollicité par l'entreprise pour se déplacer dans le cadre de
son activité professionnelle. On assiste ainsi à une
décorrélation croissante entre l'activité de travail et le lieu de
réalisation de cette activité. P. Vendramin et G. Valenduc
parlent ainsi de repères qui s'estompent : "La règle littéraire
de l'unité de lieu et de l'unité de temps, bien connue de ceux
qui ont étudié la tragédie classique, est aussi celle qui régit
l'organisation du travail depuis le début de la révolution
industrielle. Le travail se déroule dans un lieu unique, par
exemple l'atelier ou le bureau, et dans un temps bien défini,
concrétisé par une démarcation entre le temps de travail et les
autres temps sociaux : éducation, loisirs, famille, etc. (…)
Aujourd'hui, ces repères s'estompent."9 Des zones de
brouillage entre les différents lieux et temps sociaux de la
personne redéfinissent fortement les anciennes frontières entre
le professionnel et le privé10.
Parallèlement, dans l'univers du travail comme dans
l'univers domestique, les Technologies de l'Information et de
la Communication se sont fortement généralisées jusqu'à
devenir omniprésentes : téléphone fixe, mobile et mail sont le
support de pratiques quotidiennes d'un grand nombre de
personnes. L'évolution des techniques est donc quantitative,
8
Isaac Henri, Kalika Michel, "Organisation, nouvelles technologies de
l'information et de la communication et vie privée", Revue Française de Gestion,
n°134, Juillet 2001.
mais elle est également qualitative du fait de l'augmentation
forte des capacités offertes par ces outils. Cette généralisation
des outils et des services de communication redéfinit ainsi
complètement la gestion des espaces et du temps, ouvrant des
possibilités d'articulation de plus en plus fortes entre les
différents univers de vie des individus. Comme le constate H.
Isaac et M. Kalika11, les TIC ne font ainsi qu'accompagner un
mouvement plus général de transformation de la notion
d'entreprise et de travail et de changement dans notre rapport
au temps. J.-Y. Boulin fait référence à l'aspect de plus en plus
immatériel du travail, associé à un double processus
d'intensification/densification qui "induit un processus de
mobilisation des capacités cognitives des individus qui tend à
instaurer un continuum entre le travail et le hors-travail". Il y
a donc, selon lui, un premier niveau de brouillage entre les
sphères privée et professionnelle qui n'est pas en lien avec le
développement des TIC. Mais parallèlement, il constate aussi
que "l'utilisation croissante des outils nomades instrumente
cette hystérésis alimentant ainsi un brouillage des frontières
entre le travail et le hors-travail"12.
Il y a donc désynchronisation des temps sociaux d'une
manière générale, l'objectif pour les individus étant alors de
trouver les meilleurs compromis pour agencer au mieux ces
temps. L'une des questions que nous soulevons dans cet article
est donc celle du réagencement des temps sociaux via les TIC.
Comment les individus mobilisent-ils les TIC pour s'organiser
dans un univers qui est de plus en plus flou et dans lequel les
espaces-temps sont de plus en plus imbriqués ?
C'est à partir d'une étude quantitative réalisée en 2005
auprès de 2000 actifs occupés en France et en GrandeBretagne que nous nous proposons d'analyser ces pratiques qui
se situent au croisement des sphères privée et
professionnelle13.
11
Isaac Henri, Kalika Michel (2001), op. cit.
12
Vendramin Patricia, Valenduc Gérard, Les tensions du temps, Dossier éducation
permanente, Association pour une fondation travail – université, juin 2005, p.16.
Boulin Jean-Yves, "Dynamique des temps sociaux et politiques temporelles
locales", International symposium on working time, 9th meeting Paris, février
2004
10
13
9
La dimension publique est bien évidemment également impactée par ces
évolutions mais nous ne l'aborderons pas dans cette présentation.
Cette étude a été réalisée au laboratoire Sociologie des Usages et traitement
Statistique de l'Information à la Division Recherche et développement de France
38
39
La fin de l'unité de lieux, de temps, d'action
Les TIC sont fréquemment mises en avant comme
éléments explicatifs d'une plus grande perméabilité des sphères
privée et professionnelle. Mais, en même temps, "une
technologie nouvelle se développe et s'applique dans une
société qui lui pré-existe."14. Ainsi, ce n'est pas tant l'impact
des TIC sur la redéfinition des frontières entre le privé et le
professionnel qui nous intéresse ici que de comprendre la
place occupée par ces technologies dans ces évolutions. Pour
cela, nous posons quelques hypothèses de travail qui mettent
en évidence plusieurs niveaux d'entrelacement entre le privé et
le professionnel cristallisés autour de l'usage des TIC.
1.
Le premier niveau renvoie à "l'unité de lieux". Dans
un contexte où les situations de travail sont de plus
variées et mobiles (comme nous le verrons plus loin)
pour répondre à un besoin fort de réactivité face au
marché, les TIC permettent de faciliter la
décorrélation entre le lieu de l'action et l'action ellemême. Les individus peuvent accéder plus facilement
et plus rapidement de partout aux données
professionnelles dans des conditions quasi-identiques
à celles de leur bureau.
2. Le deuxième niveau d'entrelacement, très directement
lié au précédent est "l'unité de temps". Parce que les
individus sont amenés à travailler depuis des lieux
multiples, et notamment depuis leur domicile, ils
travaillent également à des moments qui ne sont pas
toujours contractuellement des temps professionnels.
Les TIC participent à ce mouvement dans le sens où
elles vont permettre de décorréler l'action et le temps
de cette action: être là mais faire autre chose ! On
peut, grâce aux TIC, mener en parallèle des actions en
lien ou pas avec le lieu dans lequel on se place (je
suis à mon bureau et je travaille, mais en même temps
que je travaille, je téléphone à mes enfants). La sphère
privée est envahie par le travail, mais le travail à sont
tour est traversé par le privé.
3. Ces deux premiers niveaux d'entrelacement des
espaces et des temps entraînent (en même temps qu'ils
en sont la conséquence) un troisième niveau
d'entrelacement du privé et du professionnel au
niveau des équipements. Les individus sont de plus
en plus souvent équipés à leur domicile et, par
ailleurs, les équipements de la mobilité se
développent aussi au niveau de l'entreprise. De ce
fait, les outils tendent à devenir des outils à usage
mixte : l'ordinateur familial est utilisé pour travailler
le soir au domicile, le répertoire du mobile regroupe
souvent la totalité des contacts de la personne et son
numéro est communiqué à l'ensemble de ces contacts,
etc... De ces pratiques d'entrelacement des usages
découlent un brouillage croissant des frontières entre
le privé et le professionnel (ex. comment éviter qu'un
contact professionnel n'appelle durant les temps non
travaillés (vacances, soirée, etc…) alors que l'on
souhaite rester joignable par ses contacts
personnels ?).
L'étude réalisée en 2005 sur laquelle nous nous appuyons a
été menée sur la cible des actifs occupés de 18 ans et plus.
Cette étude s'est construite autour de deux enquêtes
télécom. Plusieurs chercheurs ont collaboré au travail d'analyse des données :
Anca Boboc, Thomas de Bailliencourt, Laurence Dhaleine, Fabienne Gire, Kaïs
Hebiri et Alexandre Mallard.
successives dans chacun des pays. Une première enquête
quantitative de cadrage, basée sur un questionnaire en face à
face passé auprès d'un millier de personnes, a permis de
réaliser un inventaire des outils de communication utilisés
dans le cadre de l'activité professionnelle et de connaître les
caractéristiques socio-démographiques et professionnelles de
leurs utilisateurs.
La deuxième enquête est aussi une enquête quantitative,
mais elle est centrée sur une sous-population plus spécifique,
celle des "multi-équipés" que nous définissons comme les
personnes utilisant dans le cadre de leur activité
professionnelle au moins deux outils parmi le mail, le
téléphone fixe et le téléphone mobile. Cette phase a permis de
quantifier les usages combinés de ces équipements, et d'aller
plus loin dans le détail des comportements et attitudes en
matière de communication
o
Caractéristiques d'équipement de l'échantillon
Deux axes majeurs discriminants: le niveau hiérarchique et la mobilité
Niveau hiérarchique
+
3 outils
Fixe et Mobile
-
Fixe et Internet
Mobile
et Internet
Mobilité+
Fixe
Mobile
Aucun outil
-
Parmi les personnes utilisant les trois outils pour travailler,
on trouve essentiellement des professions libérales, des
artisans, des commerçants et des cadres occupant des fonctions
de direction. Les ouvriers sont quant à eux sur-représentés
parmi les utilisateurs de "fixe + mobile" et les employés parmi
les "fixe + mail". La configuration "mail + mobile" est rare.
Sans entrer dans le détail, on peut dire que les pratiques en
termes de communication sont fortement corrélées à la
fonction, l'activité et la taille de l'entreprise. Ce graphique
montre également que l'équipement est en grande partie corrélé
avec le niveau hiérarchique et le niveau de mobilité des
individus.
Les TIC à l'articulation du privé et du professionnel
o Une analyse des situations de travail, à l'articulation
entre l'entreprise, le domicile et le déplacement
Comme nous l'avons signalé, les individus travaillent de
plus en plus souvent sur des lieux multiples. Travailler dans un
lieu fixe et unique est donc une configuration qui semble
moins partagée aujourd'hui. G. Crague constate que "le travail
fixé dans les locaux de l'entreprise ferait place au travail hors
les murs."15 Dans l'étude, nous nous sommes intéressés à la
répartition du temps de travail des actifs occupés entre
l'entreprise, le domicile et les déplacements. En fonction de la
répartition du temps de travail sur ces lieux, on peut distinguer
7 configurations qui sont schématisées ci-dessous. Il apparaît
ainsi que la situation de travail dans un lieu fixe et unique ne
concerne finalement que 56% des actifs interrogés : "les
14
Rey Claudie, Stinikoff Françoise, "Les technologies de l'information et de la
communication. Les nouveaux espaces-temps de la ville et du travail", Esprit
critique, 2004, vol.06, N°03
15
Crague Gilles, le travail industriel hors les murs. Enquête sur les nouvelles
figures de l'entreprise", Réseaux n°134, 2005, p.67-89.
39
40
sédentaires" qui passent la totalité de leur temps de travail
dans l'entreprise (52%) et "les domiciliaires" qui travaillent
intégralement à domicile (4%). Les 44% restants cumulent
ainsi deux, voire trois types de lieux de travail différents : ceux
que nous avons appelé "les voyageurs" partagent leur temps
entre leur bureau dans l'entreprise et les déplacements ; "les
télétravailleurs" alternent travail en entreprise et au domicile ;
"les mixtes" cumulent les trois lieux.
Comprendre l'articulation entre trois situations
Les
"télétravailleurs"
Entrepris
Les
"sédentaires"
de
Les
Domicile
"domiciliaires
Les
"mixtes"
Les
"voyageurs"
Les "domiciliaires
mobiles"
Déplacem
Les "sans
lieu fixe"
D'une manière générale, donc, on assiste bien à une
diversification des lieux de réalisation de l'activité
professionnelle pour près de la moitié des actifs occupés. Cette
évolution n'est bien sûr pas sans conséquence sur les usages
des TIC. En effet, on remarque un lien assez net entre le fait de
travailler sur des lieux multiples (mobilité) et l'usage des TIC.
o De l'éclatement des temps sociaux
La corrélation entre l'usage des TIC et les temps sociaux
est également forte pour les lieux de travail. Alors que les
temps étaient auparavant fortement corrélés avec les
différentes activités de l'individu, on assiste à un éclatement de
cette relation, favorisé par le développement des TIC. Les
données recueillies tant en France qu'au Royaume-Uni mettent
en avant par exemple une imbrication assez forte des activités
personnelles et des temps professionnels. Si 36% des
personnes de notre échantillon16 réalisent des activités
professionnelles depuis leur domicile, une part plus importante
encore d'entre eux réalise des activités personnelles sur son
lieu de travail (seuls 14% d'entre eux déclarent ne jamais
réaliser d'activités personnelles au bureau). Parmi les activités
proposées, la gestion d'imprévus personnels est mentionnée
par 52% des répondants. On constate également le maintien
très fréquent du lien de communication entre le domicile et les
autres lieux de travail. Ainsi, 90% des individus consultent
leurs mails professionnels depuis leur domicile, dont 40%
laissent ouverte leur messagerie en permanence. Parmi les
personnes qui travaillent à domicile, seuls 25% le font parce
qu'ils n'ont pas d'autres lieux de travail. 26% le font pour faire
face à un débordement d'activité, ce qui renvoie à une notion
de contrainte même si effectivement pour eux la capacité à
pouvoir réaliser cela depuis leur domicile rend peut-être la
contrainte moins contraignante puisqu'elle leur permet
d'articuler ce surplus de travail avec les temps de la famille
(travail après le coucher des enfants). A côté de cette
explication, on en trouve trois autres qui renvoient plus
directement à une volonté de meilleure harmonisation entre les
temps de travail et les temps privés : 18,7% travaillent ainsi au
domicile pour mieux concilier le privé et le professionnel ;
13,5% le font pour se mettre au calme et 3,3% pour faire
l'économie du temps de trajet. A partir des données de l'étude,
la superposition des espaces et des temps du travail et du horstravail apparaît donc nettement au niveau des activités
réalisées ainsi qu'au niveau de l'usage des TIC.
Liens entre équipement au travail et équipement au
domicile
L'étude quantitative met en avant un lien fort entre le fait
d'être équipé et d'utiliser les TIC au bureau et au domicile. On
constate tout d'abord un lien assez marqué entre l'équipement à
disposition sur le lieu de travail et celui du domicile. Ainsi, le
taux d'équipement en ordinateur à domicile, par exemple, est
plus élevé parmi les personnes utilisant un ordinateur sur leur
lieu de travail. De même, les ¾ des individus utilisant
l'ordinateur sur leur lieu de travail hors domicile l'utilisent
également lorsqu'ils travaillent depuis leur domicile. Plus on
l'utilise sur son lieu de travail et plus on s'équipe à domicile.
Ainsi, 59% des personnes qui utilisent internet sur leur lieu de
travail ont une connexion à leur domicile, contre 30% des
personnes qui ne l'utilisent pas au bureau. Plus on est
utilisateur sur son lieu de travail, plus on l'est également à son
domicile et vice versa, ce qui nous a amenés dans cette étude à
nous interroger sur les apprentissages croisés qui se mettent en
place dans l'usage de ces outils.
Par ailleurs, les équipements ont, de plus en plus,
une utilisation autre que celle initialement prévue. Ainsi, le
téléphone fixe du foyer, par exemple, est fréquemment utilisé
par les personnes qui travaillent à domicile (57% utilisent pour
cela la ligne du foyer, alors que seuls 13% d'entre eux ont une
ligne dédiée payée par l'entreprise). Il en va de même pour
l'usage de l'ordinateur familial qui est utilisé par 47% des
personnes qui travaillent à domicile. Enfin, le téléphone
mobile est pour un tiers des personnes interrogées un outil
mixte qu'ils utilisent à la fois pour des usages privés et des
usages professionnels. La séparation physique entre les
équipements, les lieux et les usages est donc de plus en plus
floue.
o
Des pratiques privées au travail spécifiques selon les
profils
Après avoir vu globalement la manière dont l'usage des
TIC interagissait avec les phénomènes d'entrelacement des
sphères privée et professionnelle, nous souhaitons, à partir
d'une typologie d'actifs construite sur la base des activités
privées au travail, mettre en avant des comportements assez
spécifiques à certains profils d'utilisateurs. Ces tendances
générales sont finalement assez différemment réparties en
fonction des groupes d'individus et de leur profil.
16
Ces données sont calculées sur une base qui comprend uniquement les
individus multi-équipés de notre échantillon global, soit 9 millions de personnes.
40
41
Caractériser la pratique d'activités privées
Le tableau ci-dessus permet de
de la manière suivante :
durant le temps de travail
dégager
des
profils
Les actifs qui ont le
représentatifs de par le type
moins
d'usages
d'activités personnelles réalisé
privés sur les temps
sur le temps et le lieu de travail.
et lieux de travail
Les couleurs représentent le
sont les plus âgés,
pourcentage de personnes dans
ceux qui ont le
la
catégorie
qui
déclare
moins d'outils à
pratiquer ce type d'activité
disposition et qui
durant le temps de travail. Il ne
ont les enfants les
met ainsi pas en avant une
plus grands. Ce sont
intensité
de
pratiques
parallèlement
les
individuelles, mais une intensité
moins diplômés et
de pratiques collectives. Nous
ceux qui travaillent
Absence de pratique
Pratiques fortes
observons des caractéristiques
le moins.
assez fortes pour chacun de ces
Les actifs qui ont le
groupes : d'un côté, ceux qui ne
plus recours aux
Base: ensemble de la population active en emploi de 18 ans et + multifont rien et ceux qui font de tout
activités privées sur
équipée (soit 9 millions de personnes)
beaucoup ; de l'autre, ceux qui
les temps et lieux de
consultent des sites, qui organisent leur temps et ceux qui
travail sont les plus jeunes. Ils sont bien équipés en TIC
communiquent (par écrit ou à l'oral). Les séparateurs sont
dans le cadre de leur activité professionnelle, disposent
caractérisés par le fait qu'ils ne réalisent pas d'activités
d'une autonomie dans leur organisation assez importante.
personnelles au bureau. Les internautes, les bavards et les
Ils ont de jeunes enfants, sont diplômés et travaillent le
urgentistes ont un niveau assez moyen d'activités privées au
plus.
bureau. S'ils ne se différencient pas par leur intensité d'usage,
Ce type de pratiques d'entrelacement dans la réalisation des
ils le font par le type de médias qu'ils mobilisent pour réaliser
activités est donc lié de manière combinée à plusieurs facteurs
ces activités. Les internautes utilisent essentiellement
que sont la structure familiale (plus la personne a des enfants
l'informatique et internet ; les bavards sont quant à eux des
jeunes et plus elle a de besoins de coordination qui l'amènent à
utilisateurs intensifs du téléphone et les urgentistes se
gérer les imprévus, prendre des RV, etc sur son temps de
caractérisent par le fait qu'ils réalisent essentiellement des
travail) ; l'équipement (plus la personne a d'outils à
activités liées à la gestion du temps. La catégorie des "poreux"
disposition et plus elle aura d'opportunités de réaliser des
est caractérisée par une pénétration assez forte des activités
activités personnelles sur son temps de travail) ; les
privées dans le temps de travail et enfin, les intensifs ont un
dispositions personnelles à l'usage (plus on est habitué et
nombre important d'activités privées au bureau qui sont de tout
formé à l'usage des TIC, mieux on s'en sert pour articuler ses
ordre.
différents usages). Il faut ajouter à cela le type d'emploi dans la
Si l'on va plus en détail dans la description de ces groupes,
mesure où certains n'offrent pas la possibilité d'articulation et
plusieurs éléments nous apportent des réponses sur les
peuvent donc contraindre la personne à segmenter sphère
caractéristiques qui ont une influence sur la pratique d'activités
privée et sphère professionnelle sans possibilité de compromis.
privées au travail. Le secteur d'activité, tout d'abord, a une
faible influence sur les comportements. En revanche, on
Conclusion
constate que ce sont les actifs les moins diplômés qui font le
Les notions même d'entreprise et de travail sont aujourd'hui en
plus de vocal ou qui ne font aucune activité privée au travail.
complète redéfinition. Les TIC viennent accompagner un
Le niveau de diplôme est donc un élément de différenciation
mouvement déjà fortement engagé d'un point de vue sociétal et
assez fort sur cette question. Bien évidemment, le lien de
qui renvoie à des dimensions qui ont peu à voir avec la
causalité entre ces deux variables n'est pas aussi binaire
technique. Elles favorisent l'établissement de compromis entre
puisque par exemple, ces deux catégories sont aussi celles qui
l'entreprise et l'individu qui vont dans le sens d'une plus
regroupent le plus d'ouvriers. De la même manière, on constate
grande imbrication des sphères privée et professionnelle,
que les usages sont plus faibles si l'équipement à disposition
principalement due au fait que les TIC permettent aujourd'hui
est moins important ou s'il est partagé. Ainsi, si les internautes
de s'affranchir des contraintes de temps et de lieux. Ces usages
font surtout de l'internet c'est peut-être parce qu'ils sont 40% à
croisés posent la question des apprentissages : comment une
partager leur téléphone fixe avec d'autres collègues. Cela
pratique individuelle et privée peut-elle se transformer en une
renvoie à l'aspect plus ou moins "discret" des outils qui, en
pratique professionnelle et collective ?
fonction de l'environnement de la personne, favorise les usages
ou les freinent. A l'inverse du téléphone, le mail et internet
permettent la réalisation d'activités privées en toute discrétion
et ce, quelque soit l'environnement de travail. "La promiscuité
agit dans cet espace comme un frein à la sphère privée. A cet
égard, le courrier électronique permet aux salariés
d'échapper à cette contrainte car il est silencieux et non
détectable par les collègues."17 Il ressort également de notre
typologie que les "intensifs" sont ceux qui semblent avoir le
plus d'autonomie dans le travail, ce qui peut expliquer la forte
interpénétration du privé dans le cadre professionnel.
Pour conclure sur cette question, nous avons dans notre
échantillon, deux profils extrêmes que nous pourrions décrire
17
Isaac Henri, Kalika Michel (2001), op.cit.
41
42
Internet dans les centres de recherche algériens :
l’absence d’une stratégie interne d’appropriation.
AIT OUARAB BOUAOULI Souad
Doctorante Paris X Nanterre - Laboratoire Cris Ceries
[email protected]
Introduction et méthodologie
Les NTIC sont devenue un élément moteur de la
recherche scientifique et un facteur principal de l’évolution du
savoir; ainsi, dans le domaine des technologies avancées, les
TNCI ont permis une évolution remarquable de ces sciences
dans le monde. Mais qu’en est-il de
l ‘Algérie ?
Le domaine des technologies avancées est considéré en
Algérie comme l’un des premiers domaines à avoir pris
42
43
conscience de cette technologie et l’un des premiers à l’avoir
introduite dans son organe de recherche. En effet, l’utilisation
de l’Internet est répandue dans ce secteur; bon nombre de
chercheurs utilisent ce réseau dans leurs travaux de recherche
et bénéficient de ses services; cela nous a amenés à réfléchir
sur un sujet traitant de l’apport de l’Internet à l’organisation de
la recherche dans le domaine des technologies avancées et par
conséquent, du rôle et de la part que prend ce réseau dans le
développement de ce domaine en Algérie.
Pouvoir accéder à l’information en temps réduit et avec le
moindre effort, constitue l’un des objectifs stratégiques
qu’entreprend un organisme pour assurer sa survie dans un
contexte de concurrence accrue créée suite aux changements
installés depuis l’évolution de l’économie classique en une
autre basée sur les connaissances. Toutefois, la gestion de ce
volume exponentiel d’informations reste peu maîtrisable.
Cependant, l’introduction de ces technologies de
l’information et notamment, l’arrivée de l’Internet dans ces
organismes de recherche a procréé d’autres soucis plus accrus
en relation avec les usages que se font les utilisateurs de cette
technologie. Afin d’étudier cette problématique, notre modèle
d’analyse se réfère aux travaux de Jacques Pérriault sur les
logiques d’usages dans l’appropriation d’une technique en tant
que règles qui structurent les pratiques d’utilisation de cet
artefact. Nous nous référons aussi aux travaux sur les
modalités d’appropriation des technologie nouvelles par
l’utilisateur final ainsi que les stratégies mises en place par les
organismes acquéreurs ( Leroi Gourhan18, Canguilhem19,
Schwartz20, Wisner21.)
Dans ce sens, Christian Licoppe22, insiste sur l’importance
de prendre en considération dans l’étude des usages, la place
des technologies, non pas seulement dans des pratiques
précises, mais dans les échanges entre les individus. Cela
justifie notre démarche.
La présente étude est une enquête élaborée au sein de deux
centres de recherche et de développement à savoir, le Centre
de Recherche pour l’Information Scientifique et Technique
(CERIST) et le Centre de Développement des Technologies
Avancées (CDTA).
Le choix de ces deux centres n’était pas aléatoire. Il s’agit
en fait, de deux centres renommés dans le domaine de la
recherche scientifique et du développement technologique.
Aussi, sont-ils considérés en Algérie comme étant les
premiers à avoir pris conscience de cette technologie et les
premiers à l’avoir introduite dans leurs organes de recherche;
le CERIST étant d’ailleurs, le premier serveur national de
l’Internet, ce qui explique notre choix.
Nous avions étudié en premier lieu, les usages des
chercheurs sur Internet au sein de ces centres et l’exploitation
de ses ressources. Nous avions ensuite traité de l’impact du
réseau sur l’organisation interne des centres et sur leurs
relations extérieures.
Les obstacles et les difficultés survenus au cours de
l’utilisation de cette technologie, seront traités en dernier lieu.
Tout au début, les directeurs des deux centres, les
secrétaires généraux, les responsables des systèmes
18
Leroi-Gourhan, André.- Milieu et technique.- Paris : Ed.Michel, 1992.
19
Canguilem, G.- Connaissance de la vie.- Paris : Vrin, 1992.p.127
20
Schwartz, Y.- Ergonomie, philosophie et exterritorialité. 1996, p147
21
Abdallah, Nouroudine.- Techniques et cultures : comment s’approprie-t-on des
technologies transférées ?- Toulouse : Ed. Octares, 2001.
22 « On peut a minima définir l'usage comme la rencontre entre un certain type de
technologie et un certain type d'usager, dans un certain contexte. Les trois termes
sont importants – or la plupart des études se focalise, soit sur la technologie ou le
service (l'offre et sa réception), soit sur l'appropriation (l'usager face à une
technologie donnée), négligeant la complexité de ces interactions ».
d’information et de la communication ainsi que les
responsables des réseaux, c’est-à-dire les responsables du
corps de logistique (de soutien à la recherche), nous avaient
accordé un entretien (semi- directif) et ce, en vue de collecter
le maximum d’informations en relation avec le sujet; cela
allait nous faciliter par la suite,
la distribution des
questionnaires.
L’entretient portait sur les points suivants :
L’objectif de l’introduction du net et de son
exploitation ;
Le rôle du système d’informations classique par
rapport à cette introduction ;
L’impact et les changements apportés par le net ;
Les thèmes traités dans le questionnaire sont :
l’utilisation et l’exploitation du réseau par les
chercheurs ;
les objectifs de cette utilisation ;
les besoins des chercheurs sur le net ;
- l’impact de l’Internet sur les systèmes d’information
classiques, sur l’organisation interne des centres et sur leurs
relations externes ;
- les inconvénients et obstacles qui entravent le bon
fonctionnement du net.
Le questionnaire utilisé comme outil principal de collecte
des données, a été consacré aux chercheurs travaillant dans les
deux centres .Quant à l’entretien, elle nous a servi d’outil
secondaire. D’autres outils aussi ont été utilisés pour nous
aider à réunir le maximum de données à savoir : l’observation
participative des comportements des chercheurs et la visite des
sites web des deux centres.
La population ciblée est l’ensemble des chercheurs des
deux (02) organismes (CDTA et CERIST). Nous n’avions pas
fait de sélection de l’échantillon, étant donné que le nombre
total de ces chercheurs était maîtrisable n’excédant pas les cent
(100) chercheurs. Toutefois, nous n’avions questionné au
CERIST que les chercheurs chargés de la recherche et du
développement technologique et qui sont au nombre de
quarante (40). Néanmoins, nous n’avions récupéré que trentehuit (38) questionnaires uniquement, soit un taux de 99 %.
Quant au CDTA, le nombre de chercheurs consultés atteignait
les quatre-vingt-quinze (95) chercheurs (c’est-à-dire tous ceux
du centre) ; nous avions récupéré dans ce cas, quatre-vingtcinq (85) questionnaires, soit un pourcentage de 89,47 %.
A noter que cette étude n’est, en aucun cas, une étude
comparative entre les deux centres, ni une étude technique de
l’architecture de l’Internet.
A signaler enfin qu’en raison de son caractère confidentiel,
nous avions été obligés de renoncer à l’étude d’un aspect du
travail qui avait trait au coût de l’Internet et son financement.
Organisation classique pour un artefact « réseau » :
Absence d’une stratégie Internet
Gérer le « capital savoir » dans un organisme, ne se limite
pas uniquement à la diffusion d’informations par la mise en
place de nouvelles technologies (Internet). L’introduction
d’une nouvelle technologie doit être accompagnée d’un
programme à long terme qui part d'une volonté stratégique, qui
passe par une bonne analyse de la nature des connaissances de
l’organisme, de son environnement, et qui aboutit à la mise en
place d'outils variés et adaptés.
Les résultats obtenus au cours de cette recherche
démontrent qu’Internet ne répond pas d’une manière
pertinente aux besoins des chercheurs et ce, malgré le volume
exponentiel d’informations qu’il offre, non pas uniquement à
cause de la nature de l’information offerte et qui, souvent, ne
répond pas aux conditions de pertinence et de précision qui
caractérise ce domaine pointu de la recherche, ou à cause des
lacunes repérées concernant l’utilisation de cette technologie
43
44
par les chercheurs, et qui a besoin d’être améliorée. Mais, le
principal problème réside en fait, dans l’absence d’une
stratégie qui prend en considération l’environnement de
recherche et ses spécificités, ainsi que les besoins des
chercheurs ; nous avons donc constaté que le réseau Internet a
été installé comme simple outil classique de communication
dont le principal objectif était de remplacer la bibliothèque ou
du moins, la soutenir.
Cette étude nous a permis de démontrer que l’impact
d’Internet sur l’organisation interne des centres de recherches
étudiés et leurs relations extérieures est infime; en fait, nous
n’avons pas constaté d’importants changements. En d’autres
termes, la nature des communications au sein de ces centres
est restée la même, orientée notamment, vers le bas, avec peu
de transactions. L’utilisation du net s’oriente beaucoup plus
pour des fins personnelles, hors travail dans la majorité des cas
et peu sont les contacts visant le travail en commun.
Les chercheurs communiquent beaucoup plus avec leurs
homologues étrangers qu’entre eux en Algérie soit un
pourcentage de 69,41% au CDTA et de 84,21% au CERIST.
Dans ce sens, nous n’avons recensé qu’un faible pourcentage
de chercheurs algériens qui communiquent avec leurs
homologues algériens résidant à l’étranger, soit respectivement
31,03% et 21,05 % des chercheurs du CERIST et du CDTA.
Cependant, on voit que les chiffres augmentent quand il s’agit
des communications personnelles, le chiffre s’élevait à 49,41%
au CDTA et à 65,78% au CERIST.
Quant à la participation des chercheurs aux
manifestations scientifiques et technologiques sur le Net, nous
avons trouvé qu’un nombre très important se renseigne via
Internet sur ces manifestations soit 82,35% au CDTA et 78,94
% au CERIST, mais il n’y a que environs 2% seulement des
chercheurs au CDTA qui y participent. Le cas cependant,
diffère au CERIST où le chiffre atteint les 34% mais reste tout
de même faible.
En outre, les relations scientifiques et technologiques avec
les autres institutions de recherche et universités n’ont pas
beaucoup évolué depuis l’introduction d’Internet dans ces
centres. Les responsables des deux centres affirment que le Net
est peu utilisé dans ce sens. Néanmoins, l’on remarque que les
résultats du questionnaire ont enregistré une légère
augmentation dans les contacts des chercheurs avec les
institutions de recherches étrangères. Toutefois, au même
moment leurs contacts avec les institutions algériennes ont
diminué. Les responsables interviewés expliquent cela par le
fait que ces dernières années ont connu l’apparition d’une
concurrence qui s’est installée entre les différents organismes
de recherche.
Nos observations confirment cette déclaration. En effet,
nous avons constaté une concurrence visible entre les divers
laboratoires de recherche des deux centres mais aussi dans le
même centre. Quelquefois, cette concurrence est présente au
sein, même d’un même laboratoire. Les chercheurs préfèrent
travailler individuellement et peu d’entre eux sont ceux qui
travaillent en groupe. Ceci n’a pas aidé à générer l’esprit de
réseau sur lequel est basée la logique de l’Internet.
En ce qui concerne l’adaptation des modes de
communication traditionnels à ce nouvel artefact, l’enquête
démontre que, l’introduction du réseau électronique n’a pas
apporté de grands changements. En effet, peu de chercheurs, à
titre d’exemple, utilisent leur e-mail pour contacter leurs
collègues administratifs, soit un pourcentage de 34,11% au
CDTA et 10,52% au CERIST. Ce chiffre reste minime aussi
lorsqu’ il s’agit de contacter un responsable ( 12,94% au
CDTA et 15,52% au CERIST ). Par contre, les responsables
envoient des e-mails à leurs administrés. En effet, 75,29% des
chercheurs au CDTA et 42,10% au CERIST ont au moins une
fois, reçu un message parvenu d’un responsable sur leur boîte,
affirment les sujets questionnés.
L’information dans ces centres reste donc, descendante,
respectant les voies hiérarchiques dans leur complexité. Les
chercheurs appréhendent la réaction de leurs responsables face
à un message envoyé par e-mail ; aussi préfèrent- ils se
présenter chez le responsable pour exprimer leurs besoins. Ils
estiment qu’il y a des habitudes et des comportements
administratifs et officiels qu’il faut respecter dont par
exemple, la demande d’audience auprès du chef, le respect de
la voie hiérarchique, etc. Cette situation est due notamment, à
un manque de confiance dans cette technologie, affirment les
chercheurs interviewés. D’autres expliquent cela par le fait de
ne pas avoir été familiarisé avec cette technologie dès le
niveau de scolarité élémentaire, ce qui ne leur donne pas, en
l’occurrence une culture importante dans l’utilisation des
nouvelles technologies de l’information. C’est pourquoi ce
point permet d’ouvrir d’autres horizons d’études dans les
sciences de l’information et de la communication pour lesquels
nous invitons nos aimables chercheurs à étudier.
Les chercheurs désertent les bibliothèques
Chacun des deux centres se dote d’un système
d’information propre à lui dont le rôle est la collecte, le
traitement et la diffusion de l’information scientifique et
technique. En plus d’un service technique qui s’occupe de la
gestion du réseau Internet. La bibliothèque dans ce contexte,
est un élément du réseau géré par ce service. Le bibliothécaire
n’utilise Internet que pour des raisons personnelles, ses
contactes avec les chercheurs se limitent leur procurer les
documents « papiers » dont ils ont besoin. Les chercheurs
préfèrent, en fait, utiliser cet outil sans avoir recours au
bibliothécaire même lorsqu’il s’agit de recherches
documentaires.
Au niveau du CERIST les choses sont différentes car la
bibliothèque a pu comme même, prendre place dans ce
nouveau système et utilise Internet pour valoriser ses produits
documentaires. Les résultas de nos entretiens, dans les deux
centres, démontrent que l’introduction d’Internet est la
principale cause qui laisse les chercheurs déserter la
bibliothèque. Le chercheur ne fait recourt à la bibliothèque que
dans les cas où le document est introuvable sur le net, tels les
textes réglementaires, les rapports techniques…etc.
En fin, Nous avons essayé d’étudier la fréquence
d’utilisation de la bibliothèque avant et après l’introduction de
l’Internet mais les bibliothèques ne gardaient pas les fiches de
prêt des utilisateurs. C’est pourquoi nous n’avons pu
confirmer cela que de par les réponses des sujets interviewés et
les résultats du questionnaire. Ces derniers ont montré que
17.64% des chercheurs du CDTA et 26.31% au CERIST ont
complètement arrêté de se rendre aux bibliothèques de leurs
centres, et presque la moitié d’entre eux, s’y rend rarement. Ce
chiffre parait minimes mais en fait, il constitue le quart des
chercheurs des deux centres. Aussi, nous tenons à signaler que
même le rôle classique du bibliothécaire est menacé si toute
fois, les centres de recherche ne décident pas d’une politique
d’information qui permet à la bibliothèque d’être au centre des
évolutions technologiques de leurs organismes.
Productivité des chercheurs et Internet
Afin d’étudier la productivité des chercheurs dans ces
centres, nous avons délimiter quatre critères, à savoir: le temps
consacré à l’utilisation du net, la fréquence de cette utilisation,
le nombre de documents publiés et le nombre de produit
innovés.
Concernant le temps que passent les chercheurs sur le net,
nous avons trouvé que 42.35% des chercheur du CDTA et
55.26% du CERIST passent de deux (02) à quatre (04) heures
par jour sur le net soit, une demi journée. Et nous avons trouvé
44
45
que respectivement, 32.94% et 13.15% des chercheurs des
deux centres utilisent Internet presque une demi journée de
façon continue (quotidiennement).
De 1997 à l’an 2001 aucun brevet n’a été déposé par les
deux centres. Cependant, Nous avons recensé neuf(09)
produits innovés au CERIST et 15 au CDTA. Quant aux
publications le chiffre à atteint 125 documents au CDTA et
145 au CERIST. Afin de connaître l’évolution de la
productivité des chercheurs, nous avons calculé la moyenne de
la productivité d’un seul chercheur. Au niveau du CDTA, les
résultats obtenus montrent une augmentation de cette
productivité qui a atteint 0.74 en 1997 alors qu’elle était à
0.01en 1991.
Nous avons calculé dans le même centre la moyenne de la
productivité d’une heure de travail et le constat était le même.
En effet, les résultats ont enregistré un accroissement de cette
productivité qui a augmenté de 0.020 en 1991 à 0.033 en
1997. Soit la durée nécessaire pour la production d’un écrit a
diminuée de la moitié.
Nous n’avons pas pu obtenir ces informations au CERIST
faute de quoi nous n’avons pu étudier ce point. En effet, le
centre avait perdu le registre qui recense les travaux des
chercheurs, nous a indiqué un responsable. Cependant,
l’ensemble des interviewés affirment l’accroissement des
travaux produits et ce depuis l’introduction de l’Internet.
Diminution du nombre de chercheurs dans les
centres de recherche
Concernant ces constatations, l’enquête a enregistré le
départ d’environ 25 chercheurs du CDTA (selon les
témoignages). En revanche, au CRIST, l’état du personnel a
montré qu’il y a eu une légère augmentation du corps des
chercheurs de 1994 à 2002 et cela grâce à la politique de
recrutement adoptée. Ainsi, bien que cette politique arrive à
comblé le vide laissé par le départ des scientifiques, elle ne
peut cependant pas, remplacer le capital intellectuel de
connaissances qui prend des années à se construire.
Devant ces faits, nous avons questionné les chercheurs sur
leurs contactes pour des demandes d’emploi : 20% d’entre eux
au CDTA et environ 30% au CERIST affirment avoir tenté
leur chance via Internet pour un emploi à l’étranger. Ils
affirment en outre, qu’un nombre important de chercheurs s’y
trouve maintenant à l’étranger grâce à des contactes qu’ils
avaient établis sur le net.
Les chercheurs trouvent que le net est le meilleur moyen
pour se tourner vers l’étranger par ce qu’il offre comme
possibilités de contacts rapides et gratuites avec les
homologues au niveau mondial.
Conclusion
Cette enquête a démontré qu’il ne suffisait pas d’importer
une nouvelle technologie pour espérer réaliser le
développement escompté. L’introduction d’un artefact
étranger dans un environnement traditionnel sans tenir compte
de ses spécificités : des logiques d’usages existantes, des
conditions socioprofessionnelles et culturelles tant des
individus que des organisations, peut emmener à son échec.
Sans stratégie claire et étudiée
au moment de
l’introduction d’une nouvelle technologie les chances d’une
appropriation authentique sont faibles, ouvrant les portes pour
un détournement de l’artefact à des fins personnels qui
malheureusement, ne vont pas toujours, dans l’intérêt de
l’organisation.
Bibliographie:
Ait ouarab Souad.- Apport de l’Internet pour la recherche scientifique et le
développement technologique en Algérie : Cas du Centre de Recherche pour
l’Information Scientifique et Technique (CERIST) et le Centre de développement
des Technologies Avancées (CDTA). Bibliothéconomie et sciences documentaire,
2003, 270p.-Mémoire de magister : Instit. de Bibliothéconomie : Alger.
Abdallah, Nouroudine.- Techniques et cultures : comment s’approprie-t-on des
technologies transférées ?- Toulouse : Ed. Octares, 2001.
Bakelli Y.- Contribution à l’étude de la problématique de l’édition
électronique :cas du secteur de l’enseignement supérieur et de la recherche
scientifique,2000, 260p.-these de magister: Instit.de Bibliothéconomie:Alger
Bares, Michel.- Recherche documentaire dans le contexte télématique.- Paris :
Technique et documentation,1984
Bellamlik Ahmed.- Usages des chercheurs sur Internet, 1995-1996.p92.mémoire de DEA:science de l’information et de la communication: INSSIB:
Paris.
Benoit Aubet .- Les technologies de l’information et l’organisation .- Montréal :
Gaetin Morin ,1996.- 255p.
Bensiameur L ; ouafi R.- Contribution à l’étude des publications scientifiques et
techniques
« Littérature
Grise »
en
Algérie.Mémoire
de
licence:Bibliothéconomie:Univ.d’Alger:1996.-113p. , annexes
Canguilem, G.- Connaissance de la vie.- Paris : Vrin, 1992.p.127
Chekkouche Y ; Lakouas T.- L’intégration des nouvelles technologies de
l’information et l’utilisation de l’écrit : cas du CERIST et du CRED.- in actes de
la journée d’étude sur les technologies de l’information et
documentation ,20Juin 1995. (Institut de Bibliothéconomie, Association
Algérienne de Bibliologie)
Compte rendu du séminaire COST A3 sur la gestion du transfert de
connaissance technologique .Fev.1996, Milan, Italie
Dahmane.- la problématique de la communication dans la relation universitéRecherche-Entreprise. in : Actes des journées Algéro-Britanique.13-14 fev.1993
(CERIST).
Leroi-Gourhan, André.- Milieu et technique.- Paris : Ed.Michel, 1992.
Schwartz, Y.- Ergonomie, philosophie et exterritorialité. 1996, p147
Articles:
ChartonG.- IST et réseaux électroniques de recherche : quels enjeux ? in
documentaliste, vol.30, n°2,1993; pp.72-78
Guevouita(le).- Outil de recherche du Web : les limites et les aléas du
référencement .- in : documentaliste ,vol.35,n°6,1998;pp.315-320
Roger A.- Comprendre les chercheurs : un élément essentiel pour la gestion de
la recherche .-in : Revue française de gestion ,Part44,Janv.Fev.1984
Webographie
Bellamlik.-usage des chercheurs sur internet . 1996 :these de DEA.in :
www.enssib.fr/bibliotheque/documents/dea/dea96.html
www.enssib.fr/bibliotheque/documents/dea/membellamlik.pdf
Caillaud Marc –Antoine .- Communication scientifique sur Internet : nouveaux
besoins ,nouveaux métiers.- Institut national de la recherche agronomique;
Paris. in http://www.idt.fr/idt/pages_fra/actes/actes2000/page7bis.htm
Ermine J.L.- Enjeux et démarches de gestion des connaissances in http
www.irit.fr/IC2000/programme2000.html.
Hert Philippe .- les arts de lire le réseau : un cas d’innovation technologique et
ses usages aux quotidien dans les sciences.- in la recherche,n°77,1996.
www.larecherche.fr
Meur ,Helène(le) .- l’Afrique tisse une toile disparate .- in la recherche ,n°
328,02/2000 : http://www.larecherche.fr
Polity Yolla.- les comportements des chercheurs dans leurs activités (y compris
à la documentation) in
http.www.inrp.fr:8080/cgi-bin/Publications/recherche_cat?Numero=637
Réseau des chercheurs européens (le).-in la recherche, n°328,02/2000 :
http://www.larecherche.fr
Proposition pour la prise en compte des risques dans un territoire local et émergence d’un
Système d’Information Territorial réducteur de risques.
Etude de cas dans une municipalité de moyenne dimension
Yannick BOUCHET
Equipe - EURISTIK
Centre de Recherche Magellan de l'IAE,
Université Jean-Moulin, Lyon 3
[email protected]
45
46
Introduction :
La gestion des risques naturels ou technologiques est un
domaine d’interrelations entre milieux (activité humaine et
activité économique). « La mondialisation des activités
économiques accentue l’imbrication spatio-temporelle des
actes de différents acteurs économiques et sociaux. Les crises
sanitaires, environnementales ou sociales qui accompagnent
les catastrophes industrielles et/ou économiques modernes
(Bhopal, Tchernobyl…SRAS, Vache folle, Enron, Amiante
…) en sont des illustrations fortes » (cf., Eric Findel (2006,
p5)). Dès lors, le risque est collatéral de l’environnement et de
l’économie, puisque certains risques technologiques
(industriels par exemple) sont aussi environnementaux et
économiques. Ainsi, dans une localisation déterminée, la
gestion des risques peut être protéiforme : risque industriel,
risque d’inondation, risque d’avalanche, risque sismique,
risque de catastrophe économique etc. Une science
particulière, liée à la gestion du risque, a émergé sous le
néologisme de cindyniques. C’est Georges Yves Kerven
(1995) qui, à partir des travaux de Patrick Lagadec23 (1979,
1980) et du colloque de l’ACADI (Association de Cadres
Dirigeants de l'Industrie) organisé au Palais de l’UNESCO en
198724, est le fondateur de cette tentative de constitution d’une
science du danger. Cet auteur développe l'épistémologie
cindynique et décrit la phénoménologie cindynique. Ses
Travaux permettent d'entrevoir la structure encyclopédique des
cindyniques et, notamment, son application aux différents
aspects de la vie quotidienne (cf. Kerven, 1995). Dans cette
perspective où, au niveau du territoire local, les interrelations
sont telles que les objets (économiques, sociaux,
environnementaux, sociétaux) agissent les uns avec les autres,
nous conduit à proposer d’étudier la gestion des cindyniques
au niveau d’un territoire local.
Les cindyniques d’un point de vue local :
Mais qu’est-ce que représentent réellement les cindyniques ?
Et quel est le rôle de la collectivité locale dans ce domaine ?
Les aléas économiques, écologiques et industriels actuels, sont
pour le territoire local, une source considérable de risques. Dès
lors, il s’agit de prendre de la hauteur de vue et de considérer
le territoire comme un système complexe turbulent. Ainsi, il
nous semble pertinent d’introduire la notion de management
des risques au niveau d’un territoire. D’un point de vue
économique, selon Vachon (1996, p.291), « la collectivité est
amenée à prendre conscience de sa situation, à inventorier ses
ressources, à évaluer ses forces et ses faiblesses sur le plan
physique et humain, à identifier les leaders et acteurs locaux, à
déterminer ses besoins et ses aspirations ». Mais que signifie
exactement cette notion de risque ? Selon le Clusir Rha25, pour
qu’il y ait risque, il faut que la formule suivante soit non
nulle :
Risque = Menaces x Vulnérabilités
Certains la complexifient en introduisant la probabilité d’une
attaque, or cette probabilité est la mesure même du risque
selon la définition donnée par J.M Keynes26 et par F. Knight27,
tous deux en 1921. Pour Frank H. Knight (op.cit) le risque
23
« Faire face aux risques technologiques », La Recherche, vol. 10, n° 105,
novembre 1979, pp. 1146-1153.
« Le défi du risque technologique majeur », Futuribles, n° 28, novembre 1979,
pp. 11-34.
« Politique, risques et processus de développement - Le Risque technologique
majeur » - Thèse de Doctorat d'Etat en Sciences Politiques, 1980.
24
http://www.cindynics.org/iec-historique.htm (page consultée le 4 mars 2006)
25
Le Club Sécurité des Systèmes d'Information de la région Rhône Alpes
suppose que l’agent ne connaît pas l’avenir, mais peut le
probabiliser. Mais selon Kerven (1995, p. 25) cet espace à
deux dimensions n’est qu’une des composantes (statique)
d’une structure plus complexe. Ainsi, il propose un
hyperespace du danger. Pour cet auteur, l’hyperespace
cindynique est le produit de cinq espaces :
- l’espace mnésique (ou statistiques), qui constitue la
mémoire : du réseau, la banque de données, de faits, (S)
- l’espace épistémique, est la source des modélisations, (E)
- l’espace téléologique, est l’ensemble des finalités, (T)
- l’espace axiologique, est le lieu de stockage des systèmes de
valeurs, (A)
- l’espace déontologique qui recueille les « règles du jeu » du
réseau (D).
Cet hyperespace prend la forme suivante :
Source : Hyperespace des dangers selon Kerven (1995, p. 29)
Dès lors, se construit autour de la passerelle de finalités, deux
hyperespaces. Le premier est la généralisation du modèle à
deux dimensions (Clusir, Keynes, Knight …) et est nommé,
espace généralisé du danger (espace praxique du danger). Le
second prend en compte les questions philosophiques, il est
nommé par Kerven, espace ontologique. La généralisation de
la figure ci-dessus prend la forme suivante :
Source : Généralisation des hyperespaces (Kerven, 1995, p. 27)
Selon Kerven, à chaque réseau d’acteurs est associé un
hyperespace du danger (id, p. 28). La construction par les
acteurs, d’un hyperespace perçu et d’un hyperespace voulu
permet la mise en évidence de distances entre l’existant et le
souhaitable. Ces distances sont nommées dissonances au sens
des cindyniques. Ainsi, elles forment, au niveau des risques
territoriaux, dans une démarche déductive (arbre des
défaillances), des vulnérabilités.
Le territoire local, un lieu d’interactions des phénomènes :
Le maillage de toutes les parties prenantes (firmes locales,
organisations administratives et consulaires …) du territoire
produit un phénomène d’interactions et d’imbrications qui fait
partager et prendre en compte le risque. Ainsi, une
organisation qui s’expose, ou qui est exposée, expose les
autres28.
L’étude des menaces, des vulnérabilités et des opportunités
pour la territorialité revêt un caractère singulier pour la
municipalité. En effet, son rôle de processeur informationnel
(cf., Bouchet, 2005) l’oblige à une distanciation par rapport à
ses intérêts particuliers immédiats. Les firmes locales sont
perçues d’une manière systémique. C’est la position
d’indicateurs sur celles-ci qui permet des remontées d’alertes
26
John Maynard Keynes « A Treatise on Probability » ; The Macmillan Press,
Londres, 1921.
27
Knight F.H. « Risk, Uncertainty and Profit » ; Kelley, New-York, 1921.
28
Cf. cas AZF : les entreprises sous-traitantes ont subit le contre coup
économique de l’accident
46
47
en perspective des enjeux pour le « collectif territorial ».
Nous pouvons, en théorie, parler de menaces socioéconomiques quand la délocalisation ou l’arrêt d’une
entreprise va engendrer un fort taux de chômage et ainsi être
porteuse d’un impact social significatif. Mais c’est aussi, par
exemple, les difficultés financières d’une entreprise qui
peuvent conduire à des problèmes sociaux localement situés.
Sur notre terrain de recherche, le non paiement de l’intégralité
des salaires, de la société Duralex implantée sur le territoire de
la ville de Rive de Gier (Loire) a conduit le maire à proposer
des bons alimentaires pour répondre aux besoins des plus
démunis. Cette société fabricant de verrerie de table qui
emploie 500 salariés, à répartition égale, sur deux sites (Rive
de Gier (Loire) et Chapelle-Saint-Mesmin (Loiret)), a été
placée en redressement judiciaire le vendredi 3 juin 2005 par
le tribunal de commerce d'Orléans. L’entreprise n'a pu verser
qu'une petite partie des salaires du mois de mai et s'est
déclarée en cessation de paiement le jeudi 2 juin 2005.
Dans ces situations, le défaut de paiement des salaires crée une
détresse sociale importante nécessitant une intervention de la
collectivité locale. Ainsi au niveau local, l’économique et le
social interagissent pour former une problématique socioéconomique.
Toutefois, les menaces économiques ne prennent pas
nécessairement leurs origines dans des évènements
économiques. En effet, elles peuvent apparaître en raison
d’une vulnérabilité liée à un danger particulier. Il peut s’agir
par exemple, d’une catastrophe naturelle qui va conduire à des
drames localement situés. Dans cette idée, les crues de
décembre 2003 observées dans les villes de Rive de Gier,
Givors et Grigny ont été d’une extrême ampleur et ont
engendré des dégâts importants relativement à la dimension
des cours d’eau concernés.
Le mardi 3 décembre 2003, des pluies exceptionnelles ont
provoqué une très importante crue du Gier. Les voies de
communications, situées près du fond de la vallée, ont par
endroits été atteintes et il en a résulté des dommages et une
paralysie du trafic routier. La section autoroutière située entre
Rive-de-Gier et Givors a été endommagée. Suite à deux
affaissements de chaussées à hauteur de Saint-Romain-enGier, l’autoroute a été coupée du mardi 2 décembre au jeudi 4
décembre. Pendant les travaux de réparation de la chaussée,
l’autoroute « A47 » a été rouverte de façon partielle en « 2x1 »
voie. Le 22 janvier 2004, la seconde voie vers Lyon a été
rétablie et le retour à la normale est intervenu le 5 février
2004. Cette section de l’A47 est empruntée habituellement par
environ 55 000 véhicules par jour (selon les médias). Cela
s’est traduit par des conditions de circulation, qui se sont
dégradées durant cette période (selon les médias, 25 minutes
de temps de parcours en plus en moyenne). Mais au-delà des
problèmes matériels et quelque fois de temps de parcours
supplémentaire, les inondations ont détruit des maisons et des
entreprises, il s’en est suivi des drames humains, économiques
(perte d’emploi) et affectifs (habitation détruite). Des
logements sont devenus insalubres ce qui a conduit à des
problèmes sanitaires et sociaux. Dans ce type de catastrophe,
certains habitants cumulent les drames : chômage, habitation et
affectif. Dans cette perspective, un maillage horizontal avec les
communes limitrophes ainsi que la construction de partenariats
semblent nécessaires. Les coopérations peuvent, par exemple,
prendre la forme d’une prise en charge de la scolarisation
d’écoliers de la commune sinistrée pendant la reconstruction
de leur école.
Mais doit-on écrire des procédures sur toutes les menaces du
territoire ? Pour Eric Fimbel (2004, p.92), les procédures
traditionnelles consistant à établir avec des experts des
catalogues analytiques des risques sont insuffisantes et
dangereusement aveuglantes. Elles sont statiques et relèvent de
l’expertise, elles ne sont donc pas directement accessibles aux
acteurs locaux. Pour cette raison, un système panoptique
semble requit. Cette assertion nous conduit, d’une part, à la
prise en compte des cindyniques, qui à travers les
hyperespaces révèlent les dogmes, les déficits managériaux29,
etc. et, d’autre part, à la mise en place d’un collecticiel pour le
partage et l’ouverture aux parties prenantes.
Les cas évoqués plus avant font apparaître que le territoire
peut se trouver à la fois protecteur (cindynolytique) car des
réseaux d’acteurs peuvent anticiper les dangers à venir dans le
cadre d’un système panoptique, et producteur de dangers
(cindynogène) en stockant ou recevant des processus non
totalement maîtrisés. Dès lors, la dialectique cindynolytique /
cindynogène fait que le territoire prend la forme d’un système
complexe (cf. Bertacchini, 2000 ; Prax, 2002). Ainsi, nous
proposons dans la suite de cet article, d’exposer une étude de
cas réalisée dans une ville de taille moyenne (de la région
Lyonnaise), afin, d’une part, de comprendre comment sont
appréhendées les cindyniques par la gouvernance municipale
et, d’autre part, pourquoi émerge la nécessité d’un collecticiel
territorial.
Etude de cas : la ville de Pierre Bénite (69) :
La méthodologie de cette recherche repose sur une démarche
inductive. Nous avons contacté le premier adjoint, le directeur
général des services ainsi que le responsable de la sécurité de
la ville de Pierre Bénite pour établir avec eux l’objet d’une
étude de la problématique des dangers dans cette municipalité.
Après une rencontre avec les deux premiers pour positionner
l’étude, nous avons conduit des réunions ainsi que des
échanges par courriel avec le responsable de la sécurité. Dans
la première réunion nous avons utilisé un questionnaire,
spécifique à l’analyse des risques, représentant un fil
conducteur de l’interview. L’élaboration du questionnaire a été
réalisée de telle sorte qu’il laisse libre cours à l’expression.
Notre recherche s’est ensuite penchée sur la littérature
spécialisée dans le domaine des risques (cf., bibliographie).
C’est ensuite par des va-et-vient réguliers entre la littérature et
le terrain (discussions avec les acteurs de Pierre Bénite,
particulièrement avec M. Alain Pélosato, responsable de la
gestion des risques) que s’est construit cette recherche à Pierre
Bénite.
Introduction (historique de la ville)
Commune indépendante depuis 1869, la commune de PierreBénite doit son nom à la « Petra-Benedicta », rocher connu au
Moyen Age par les bateliers du Rhône. Selon la légende, les
mariniers du Rhône, redoutant l'impétuosité du fleuve face à ce
rocher venaient s'y signer. A partir de 1870, répondant à
l’évolution économique, la « révolution industrielle », la
population active devient à part égale agricole et ouvrière. La
commune quitte ainsi une économie locale basée
majoritairement
sur
l’agriculture.
Ce
processus
d’industrialisation conduit à l’augmentation lente de la
population ouvrière qui devient majoritaire jusqu'en 1914.
L'agriculture, devenue maraîchère après 1860 décline
rapidement après 1936 et est aujourd'hui sur le point de
disparaître. Dès le début du vingtième siècle l’industrie
chimique se développe à Pierre Bénite, et en 1921, la société
d’électrochimie Ugine (aujourd'hui Arkema ) devient
progressivement l'activité clé de la localité.
Aujourd’hui, Pierre-Bénite est une ville d’un peu plus de 10
000 habitants, elle s’étend sur 424 hectares à 6 kilomètres
environ au sud de Lyon, sur la rive droite du Rhône, en
bordure de l’autoroute A 7. La ville s’est développée dans la
dépression formée par deux collines, celle du Perron et celle
29
Comme par exemple la culture d’infaillibilité (cf. Kerven (1995, p78)).
47
48
de Haute Roche, sur un axe Nord-Sud. Elle est l’une des 55
communes qui composent le Grand Lyon (la communauté
urbaine de Lyon) et appartient depuis 1985, au canton d'Irigny.
Sa situation en fait l’une des entrées les plus importantes de
l’agglomération Lyonnaise.
Problématique de la municipalité
Coincée entre des voies de communication très fréquentées
(autoroute A7 et A45, voie navigable du Rhône, voie ferrée) et
hébergeant un grand complexe de l’industrie chimique (classé
à haut risque), Pierre Bénite est une ville éminemment
vulnérable aux dangers technologiques. Elle n’a dû, jusqu'à
aujourd’hui, sa sécurité qu’à une vigilance accrue de
l’entreprise chimique et à la chance. Le service de gestion des
risques, dont le responsable est Alain Pélosato, ainsi que la
direction générale des services, dirigée par Jacky Chevalier,
ont rédigé un plan de secours communal (PSC). Ce plan est
une suite de procédures à prendre en compte dès que survient
un incident. Parce que l’enjeu pour les autorités locales d’une
ville d’environ 10000 habitants est de pouvoir répondre et
faire face à des états de crises probables (identifiés dans le
PSC), déclenchés par des aléas technologiques ou naturels, sur
lesquels on ne peut pas, bien évidemment agir. Le PSC prend
en charge les risques, que nous résumons dans le tableau cidessous, et donne les recommandations à suivre.
Alerte
<->
Réponse
Structure
Municipale de
Commandement
Risques
Technologiques
Risques
Naturels
Explosion Hors PPI (plan particulier d'intervention)
PPI Atochem (Arkema)
Pollution eau potable
Rupture de barrage
Risque Nucléaire
TMD (Transport Matières Dangereuses)
Alerte météo
Alerte neige, grand froid, verglas
Alerte tempête
Inondations
Mouvements de terrains
Source : PSC de Pierre Bénite
Le premier entretien avec Mr Alain Pélosato30 conduit à faire
ressortir les problématiques suivantes de l’analyse du PSC :
-L’effet domino n’est pas traité. Par exemple, le PSC traite de
la rupture de barrage (ex. le barrage de Vouglan (Ain)). Or, on
ne sait pas si la rupture de ce barrage qui produirait une vague
d’environ 15 mètres31 engendrerait dans un effet domino des
aléas sur l’usine chimique Arkéma. La rupture d’un barrage
n’est pas une utopie, en 1959 la rupture du barrage de
Malplasset fit déferler une vague d’eau sur la ville de Frèjus. Il
y a eu 421 victimes.
-Il ne traite pas l’après crise, avec notamment les aspects
économiques, sociaux et humains.
-Il séquence les actions mais, il ne fait pas apparaître les
durées des actions ni comment on décide de suspendre ou
arrêter le PCS.
Pour Alain Pélosato, l’effet domino est une des
problématiques que doit prendre en compte le futur PPR (Plan
de Prévention des Risques). Notamment parce que la ville de
Pierre Bénite est au carrefour de multiples voies de
communications (nombreuses menaces) et que son territoire
est extrêmement vulnérable (usine de type SEVESO 2, seuil
haut à proximité de ces voies). Bien que l’accident ferroviaire
soit rare, il n’est pas à exclure. En 1990, à Chavanay, petite
commune du département de la Loire au sud de Lyon, la
30
31
Le 22 septembre 2005.
Source A. Pélosato et Carte des risques naturels de la ville de Givors (à Givors
la vague devrait être d’environ 14m)
rupture d’attelage d’un train transportant 1850 tonnes de
carburant a produit une explosion suivie d’un incendie qui
dévasta les habitations à proximité. Un accident identique s’est
produit à la Voulte (Ardèche) en 1993, avec un train qui
convoyait 20 wagons de carburant. Les accidents routiers sont
plus fréquents car aux défauts matériels s’ajoutent les
défaillances humaines. C’est par exemple, en 1973 l’explosion
(BLEVE) d’un camion-citerne, contenant 18 tonnes de
propane, à Saint-Amand-Les-Eaux (Nord).
Dès lors, du point de vue des risques technologiques, plus que
de prévention, la gouvernance municipale va regarder la
protection des parties prenantes locales. Mais au niveau local,
les interactions sont telles, qu’une défaillance d’un élément
bouleverse l’équilibre général du système. C’est dans cet esprit
que Jocelyne Dubois-Maury et Claude Chaline (2002, p. 21),
retiennent « le principe que toute ville peut s’interpréter
comme un système dynamique, toute atteinte à l’une de ses
composantes va, non seulement modifier l’évolution de celleci, mais selon toute probabilité affectera le comportement et
l’équilibre de l’ensemble, selon un jeu bien connu d’effets en
chaînes et d’interactions ».
Ainsi, pour la gouvernance de la municipalité, les enjeux vont
plus loin que le simple aspect de réponse à une situation de
crise inopinée. Les enjeux s’inscrivent dans un processus qui
est consigné dans le temps et portent sur l’ensemble de la
territorialité. Dès lors, pour la gouvernance municipale, les
enjeux portent sur les êtres humains, les aspects
socioéconomiques, économiques, patrimoniaux et sociétaux.
On est alors confronté à l’établissement d’une grille d’analyse
complexe car les interrelations entre les risques sont difficiles
à évaluer. C’est par exemple le cas entre un risque
technologique (BLEVE chez Arkema) et ses retombées
matérielles, psychologiques, sociales et sociétales. Dans cet
exemple, aux nombres de victimes associées à cet accident
s’ajoute l’importance du parc d’habitations rendues
inhabitables ainsi que les structures publiques inexploitables.
A Toulouse, à la suite de l’explosion de l’usine AZF, 25000
logements ont été endommagés, dont 11000 sont irréparables.
Mais pour une collectivité locale, à côté d’une baisse des
rentrées budgétaires assises sur les taxes (professionnelle,
locative etc.) c’est plus encore, la tâche de remettre en état les
bâtiments affectés, notamment les établissements scolaires (cf.
Jocelyne Dubois-Maury et Claude Chaline (2002, p. 24)). Pour
les entreprises, tout accident grave peut conduire à la
destruction des bâtiments, des infrastructures et des stocks,
mettant au chômage les personnels. Problème auquel s’ajoute
éventuellement la désorganisation de la chaîne logistique et de
sous-traitance. On parle dans ce cas d’effet en cascade.
Dans cette idée, Michel Monroy (2003, p39) écrit, « les
progrès des analyses scientifiques, dans le domaine de
l’économie, des équilibres financiers, de la genèse des
catastrophes, ont introduit l’implication des systèmes
complexes, difficiles à comprendre et, plus encore à piloter ».
Ces phénomènes complexes font perdre la lisibilité, la
visibilité de la menace. Certes, des outils de simulations
quantitatives (flux routier, fluvial, ferroviaire, inondations,
pollutions atmosphériques ou fluviales etc.) permettent de
mieux comprendre l’impact d’un problème. Ces simulations
sont aussi des outils de communications pour expliquer aux
non spécialistes (en particulier aux citoyens) les effets d’un
incident (ou d’un accident). Le couplage de ces outils à des
systèmes d’information géographique, permet d’évaluer
l’impact sur l’environnement (humain, social, économique,
écologique) d’une catastrophe. Mais les données et les
modèles mathématiques doivent préalablement exister ou être
connus.
Les impératifs de croissance et la confiance faite aux réponses
48
49
techniques conduisent à des prises de risques. Ainsi, on
construit des lotissements, des zones d’activités, des
équipements de loisir (camping, terrain de sports etc.) dans le
lit majeur des fleuves ou dans les zones d’expansion des crues.
Constructions maintes fois dénoncées par Alain Pélosato pour
le lit majeur du Gier et la zone d’expansion des crues du
Rhône. Pour cet expert, l’urbanisation de la vallée du Gier sur
la commune de Givors pose un double problème, d’une part
elle est située dans le lit majeur du Gier et d’autre part elle est
construite sur les sols des anciennes industries. Cette zone
commerciale est donc construite sur un sol fortement pollué.
Dès lors, pour Alain Pélosato, les effets furtifs de cette
pollution des sols sont des menaces latentes pour la santé
publique. Ainsi, à la cause exogène d’une inondation (aléa
naturel) se cumule le caractère endogène des risques
industriels. Dans cette idée, pour Jocelyne Dubois-Maury et
Claude Chaline (2002, p83), « tout fleuve exutoire d’un ou de
plusieurs complexes industriels devient source potentielle de
risque sanitaire, via l’utilisation des eaux par les villes et
activités situées plus en aval, c’est le cas du Rhône, à partir des
usines chimiques de Pierre Bénite, Saint-Fons ».
A travers les dispositifs de gestion de crise, la municipalité
découvre, l’univers de l’économie de l’information, mais aussi
la conduite de négociations autour du partage d’information
avec les parties prenantes locales (collectivités territoriales,
entreprises, préfecture, SDIS32 etc.). Cette complexité de sens
va se doubler d’une complexité d’abondance liée à une
profusion d’informations. Dès lors la gouvernance municipale
voit émerger deux nouvelles problématiques, d’une part la
gestion des risques physiques et d’autre part la gestion des
risques informationnels. Dans cette deuxième perspective, elle
est confrontée à la maîtrise de l’information et la gestion des
médias. Ces derniers étant, selon Thierry Libaert (2005, p. 73),
toujours tentés d’utiliser la crise pour accroître leur audience.
Parce que la crise brise la routine du traitement habituel de
l’information, elle « offre aux journalistes la possibilité
d’ouvrir une investigation, de raconter une histoire, de
démasquer des coupables » (id, p. 74). Ainsi, c’est en période
de crise que les médias peuvent révéler leur puissance. Dès
lors, pour Libaert, la qualité de l’accueil réservé aux
journalistes, le sentiment qu’ils peuvent percevoir de leur
considération, qu’un interlocuteur leur est dévolu, que leur
travail pourra être facilité, contribueront beaucoup aux
relations médias / gouvernance municipale.
Les réponses techniques appartiennent généralement aux
différentes branches des sciences de l’ingénieur. Elles ont pour
objectif, souvent par des calculs, de diminuer les risques ou de
limiter la probabilité de la survenance. Et malgré les soins
apportés à des outils comme les arbres de défaillances, les
scénarios de crises, l’imprévisibilité subsiste. De plus, dans
leur très grande majorité, les risques naturels sont exogènes à
la ville (cf. Dubois-Maury et Chaline ; 2002, p. 46). Ainsi, ils
ne sont pas toujours visibles (ou lisibles). Dès lors, seule une
approche globale, par les sciences des dangers, semble une
réponse éventuelle à cette imprévisibilité.
Emergence d’une nécessaire prise en compte des cindyniques à
Pierre Bénite
Pour, Jocelyne Dubois-Maury et Claude Chaline (2002, p27),
on ne cesse de dénoncer les conséquences d’entreprises
humaines qui vont de la négligence à l’imprudence, jusqu’à
l’excès de confiance. Pour ces auteurs, les phénomènes
d’aggravations des vulnérabilités urbaines sont innombrables,
c’est par exemple en premier lieu l’énorme stock de situations
à risques léguées par le passé. Dans cette idée, ce sont par
exemple, la localisation d’une agglomération dans un couloir
32
Service Départemental d’Incendie et de Secours
fluvial, pour des raisons historiques de transport, mais aussi
une industrialisation émergente, au siècle passé, qui liait
étroitement les usines, les entrepôts et les voies de
communication.
Le
développement
économique
et
l’urbanisation galopante, n’ont pas effacé le passé. Dès lors, le
développement des villes sur les bases du passé a pour
conséquence d’engendrer de nouvelles forces de destructions.
Dans cette idée, les stocks d’hydrocarbures du port Édouard
Herriot sont placés en face de la zone industrielle de Pierre
Bénite. En 1987, c’est l’absence de vent qui a fait éviter une
catastrophe lorsque plusieurs cuves de carburants Shell ont
explosé dans le port Édouard Herriot. Mais au-delà du
stockage, les mouvements des flux pétrolier passent en zone à
haut risque. Dès lors, ces menaces ont pour effet d’enchevêtrer
les causalités des risques. C’est ainsi, selon les spécialistes
locaux, qu’on peut se retrouver devant la difficulté de réagir
devant un événement qui a échappé à toute prévision. Que se
passerait-il, si aujourd’hui, se reproduisait l’explosion qui est
survenue en 1966 à la raffinerie de Feyzin, qui à l’époque avait
fait 18 victimes et produit des dégâts dans un rayon de 15km ?
Cet accident mortel de Feyzin a été causé par une fuite de gaz
(GPL). Cette fuite s’est transformée en BLEVE par le passage
fortuit d’un véhicule de service. Les interdépendances
organiques vont de pair avec les processus de développement,
ainsi on voit s’accroitre les dangers sur les habitants, leurs
biens, leur travail et leur vie sociale.
Avec l’approche des cindyniques sur le territoire de Pierre
Bénite, c’est un travail pluridisciplinaire qui est engagé.
S’organise alors une réflexion collective ou chaque type
d’acteur peut s’approprier le concept des cindyniques et le
projet de gestion des risques. Ce projet se décline dans
différentes dimensions (humaine, sociale, économique,
écologique, sociétale). Ainsi, il doit pour les acteurs locaux,
qui sont à l’initiative du projet, constituer un élément de forte
mobilisation des parties prenantes. C’est un projet de cohésion
au plan local.
La modélisation des risques passe par une approche de
contenu dynamique combinant système et réseau. Dès lors, la
répartition des connaissances et des concepts reposent sur le
modèle d’un graphe de réseau. Les nœuds étant les acteurs et
les liens les reliant sont des flux d’informations. Ainsi, le
concept est une somme d’interconnections d’entités. Selon
Claude Jameux (2004, p. 46), le réseau devient un modèle de
référence pour l’organisation et pour le rôle des technologies.
Pour cet auteur, « les technologies de réseau sont susceptibles
d’amplifier
les
capacités
relationnelles,
d’échange
d’information et de coordination entre les entités formant le
réseau. Autrement dit, l’organisation de type réseau est
technologiquement accessible ». Dans cette perspective, la
gestion des externalités de connaissances et la diffusion des
informations par un système organisationnel et électronique ad
hoc semble nécessaire. Mais quel que soit le degré de
virtualisation du système, le pilotage de l’organisation
réticulaire est nécessaire. Dès lors, une démarche tutoriale de
la part de la municipalité ainsi qu’une fonction d’apprentissage
va permettre au réseau de répondre aux objectifs de
management des risques. Pour cette raison, on voit apparaître
une structure de « réseau centré » (cf. Jameux, 2004, p. 56),
c'est-à-dire que la municipalité prend un rôle prépondérant par
rapport aux autres acteurs. Elle mobilise les acteurs sans avoir
d’autorité sur eux, mais elle a néanmoins un rôle dominant car
elle est le pivot. Il s’établit alors une relation de dépendance
des acteurs vis-à-vis de la municipalité.
L’analyse et la construction des hyperespaces reposent sur la
structure de réseau centré autour de la gouvernance
municipale. Les hyperespaces de Kerven sont des modèles à
cinq axes qui sont capables, d’après leur concepteur, de
produire des données mettant en perspective des
49
50
dysfonctionnements, des dissonances et des incompatibilités.
Ainsi des données issues d’un axe peuvent être incompatibles
avec un autre. Cette méthode d’évaluation du potentiel
cindynogène d’une situation fait apparaître des dysharmonies
productrices de danger (cindynogènes). Kerven en a identifiées
vingt-sept, il les appelle DSC « Déficits systémiques
cindynogènes » (Kerven, 2003). De plus, il propose de
construire des hyperespaces voulus et de les confronter avec
les hyperespaces évalués. Les distances entre les axes de ces
deux figures sont pour Kerven des dissonances cindyniques.
Dès lors, ces modèles ainsi que les formes réticulaires
nécessaires à leur alimentation fournissent peut-être des
réponses :
au manque de retours d’expériences,
aux démarches réductionnistes visant par exemple à chercher
un coupable,
aux erreurs relatives à la hiérarchisation de la gravité des
risques,
à la charge affective et/ou émotionnelle que véhicule le terme
de risque,
à la prise de conscience que les risques ne sont pas qu’une
affaire de spécialistes, etc. (cf. Monroy ; 2003).
L’apport des cindyniques pour le traitement des phénomènes
locaux fait apparaître la nécessité d’inscrire la gestion des
risques dans une approche dynamique. Il semble alors
nécessaire de construire des réseaux sociaux pour faire évoluer
les hyperespaces avec la dynamique du territoire ainsi qu’avec
son environnement. Mais pour Michel Monroy (2003, p. 32), «
dans de très nombreux domaines, il ne peut y avoir de
consensus sur la notion même de danger ou de risque, ce qui
rend d’ailleurs la prévention si difficile ». L’auteur préconise
d’aborder la notion de vulnérabilité car elle met l’accent sur ce
qui peut faire l’objet d’une menace. Pour lui le concept de
vulnérabilité emporte avec lui une valeur d’alerte
mobilisatrice. Ainsi, la dialectique utilisée dans les réseaux
sociaux comporte une sémantique adaptée (cf. Monroy ; 2003,
p. 32). Les organisations réticulaires sont des lieux et des
réservoirs d’informations et de connaissances (cf. Coeurderoy
et Ingham, 2004, p. 184)) nécessaires à la construction et à
l’évolution des modèles et des hyperespaces. Ensuite, c’est au
système d’information de stocker et de faire circuler cette
connaissance. Pour cette raison, la nécessaire rapidité de
circulation des données et des informations plaide pour la mise
en place d’un système d’information territorial incorporant le
processus de gestion des risques.
Vers la construction d’un système d’information territorial
incorporant un collecticiel
L’affirmation que « toute vie urbaine se déroule dans un
continuum de risques » (cf, Jocelyne Dubois-Maury et Claude
Chaline (2002, p. 31)), et que si le voisinage d’un aléa,
notamment avec l’usine Arkema, peut être important (avec les
dommages subis), il faut aussi compter sur ceux pouvant
affecter le territoire éloigné du site de l’accident. Dans cette
idée, Jocelyne Dubois-Maury et Claude Chaline (2002, p. 26),
préconisent l’élaboration
d’un
système
d’information
géographique, pour mieux prévoir les différents stades de
vulnérabilité. Mais l’usage d’un outil technologique spécifique
comme le système d’information géographique ne saurait à lui
seul répondre aux différentes problématiques du territoire. Il
est en effet une présentation géolocalisée de données utilisant
une base de stockage propre. C’est-à-dire, par exemple que le
SIG des villes, ou nous intervenons régulièrement, n’est pas
conçu pour communiquer avec d’autres outils et notamment
avec les systèmes informatiques de gestion financière
(comportant les données budgétaires). Il ne capture pas les
données des autres processus informationnels. Ainsi, il n’est
pas à lui seul, le système informatique d’information
territoriale qu’envisage la municipalité. En effet, les échanges
d’information entre les parties prenantes étant prépondérants,
la gouvernance municipale que nous avons rencontrée
s’oriente vers l’usage d’un collecticiel s’appuyant sur un SIG
pour traiter les risques.
En conclusion :
Dans la perspective d’une collectivité locale ayant une activité
de processeur informationnel (cf. Bouchet, 2005), on voit une
très forte imbrication des activités de processeur et de
producteur d’information. En effet le système d’information de
la municipalité est riche des données du territoire et des
composantes de celui-ci. Dès lors, avec la construction d’un
système d’information territorial (SIT) informatisé, émerge
l’idée que ce SIT puisse prendre en compte l’aspect traitement
de l’information indispensable aux cindyniques du territoire.
Ainsi, les données nécessaires à la construction de
l’hyperespace des dangers de Kerven (cf. 1995 ; 1997) sont
incorporées au système d’information territorial, c’est-à-dire
au collecticiel.
Bibliographie
Abdelmalki, L. et al (1999), « Technologie, institutions et territoires : Le territoire
comme création collective et ressource institutionnelle » (pp177-194) in Pecqueur
B. et al - Dynamiques territoriales et mutations économiques - Paris, Montréal
(Canada) – l’Harmattan – (1996) éd. 1999 - 246 p.
Arnaud, M. (2004), « La nécessaire modification de la relation administrative
avec l’arrivée des TIC » - ISDM 16 – Article 162 – mai 2004 – 12p.
Bertacchini, Y. (2000) « Information et veille territoriales : représentation du
complexe local & émergence d’un projet d’intelligence territoriale», Faculté des
Sciences de St-Jérôme, Université Aix-Marseille III, Crrm, Thèse de doctorat en
Sciences de l’information et de la communication – décembre 2000 – 261p.
Bouchet, Y. (2005). « L’intelligence économique territoriale est-elle une aide à
l’économie de proximité ? » In D. Guerraoui, & X. Richet, (Eds.). Intelligence
économique et veille stratégique – Défis et stratégies pour les économies
émergentes. Paris : L’Harmattan, 161-172.
Bulinge, F. (2002). « L’équation de la sécurité, une analyse systémique des
vulnérabilités de l’entreprise » - ISDM 5 – Novembre 2002 – 8p.
Coeurderoy, R. & Ingham, M. (2004). « Le concept de réseau en management
stratégique : de l’exclusion à la centralité » (pp.175-187) in Voisin Colette, Ben
Mahmoud-Jouini Sihem et Edouard Serge (sous la dir.), Les réseaux : Dimensions
Stratégiques et Organisationnelles - Paris – Economica – 2004 – 272p.
David, A. et Sidhom, S. (2005), « Intégration de la démarche d’Intelligence
Économique dans l’architecture fonctionnelle d’un système d’information, in « Le
Système National d’Information Economique : état et perspectives », CERIST,
Alger, Algérie, Février 2005.
David, A., Geffroy P., Goria, S., Knauf, A. (2005), « Une étude selon le point de
vue de l’infomédiaire et des problématiques de recherche d’information », Actes
du colloque ATELIS, Poitier, 2005.
David, A. (2005), « L’Intelligence Économique et Les Système d’Information :
Problématiques et approches de solutions », in « Veille stratégique : Mise en
œuvre et valorisation de la veille stratégique en entreprise », Algérie Télécom,
Alger, Algérie, Juin 2005.
David, A. (2006), « La recherche collaborative d’information dans un contexte
d’Intelligence Economique », in « Le Système d’information de l’entreprise », les
25-26 février 2006, Algérie - Télécom, Alger, Algérie.
De La Ville, V.-I. et France, I. (2004), « L’émergence d’un réseau institutionnel
local » (pp.160-172) in Voisin Colette, Ben Mahmoud-Jouini S. et Edouard S.
(sous la dir.), Les réseaux : Dimensions Stratégiques et Organisationnelles - Paris
– Economica – 2004 – 272p.
Dubois-Maury, J. & Chaline, C. (2002). Les risques urbains - Paris – Armand
Colin – 2002 – 421p.
Dumas, P. (2004), « Intelligence, Territoire, Décentralisation ou la région à la
française » - ISDN 16 – Article N° 163 - mai 2004 – 3p.
Dupont, Y. (2004) (sous la dir.). Dictionnaire des risques - Paris – Armand Colin
– 2004 – 421p.
Fimbel, E. (2004). « Répondre aux mutations de l’environnement des entreprises Management des risques, des menaces et des crises ». (pp90-95) - Cahier français
– Comprendre le management - N°32 – 95p – Juillet/Août 2004.
Herbaux, Ph. et Bertacchini, Y., « La rupture, un des corollaires de la vitesse.
L’intelligence territoriale, une posture d’anticipation. », Actes du Colloque sur les
Systèmes d’Information élaborée/Tic & Territoire : quels développements ?,
International Journal of Sciences for Decision Making, n°22, [http://isdm.univtln.fr], île Rousse 2005.
Jameux, C. (2004). « D’un modèle de référence à une classe de problèmes
récurrents en gestion ». (pp.45-57) in Voisin Colette, Ben Mahmoud-Jouini Sihem
et Edouard Serge (sous la dir.), Les réseaux : Dimensions Stratégiques et
Organisationnelles - Paris – Economica – 2004, 272p.
Kerven, G.-Y. (1995). Eléments fondamentaux des cindyniques - Paris,
Economica – 1995, 112p.
50
51
Kerven, G.-Y. (1997). « Introduction à la psychologie cindynique ». (pp95-156)
in Kerven G.-Y. et al. . Le risque psychologique majeur – Introduction à la
psychologie cindynique - Paris – Editions ESKA - 1997.
Kerven, G.-Y. (2003). « La cindynique (sciences des dangers) : états des lieux et
perspective ». Intervention à la « 1ère journée du Futur » - le 10 avril 2003, 3 p.
Libaert, T. (2005). La communication de crise – Paris, Dunod – 2005, 118p.
Moine, H. & Junqua, G. (2005), « Vers une intelligence économique territoriale
de l’aire d’influence du port de Marseille-Fos » - Communication au colloque
Européen d’intelligence économique - Approche comparée des pratiques Futuroscope de Poitier – 27 et 28 janvier 2005 – 19p.
Monroy, M. (2003). La société défensive - Paris - PUF – 2003 – 170p.
Pesqueux, Y. (2004). « Un « modèle » de l’organisation en réseau ? » (pp.28-43)
in Voisin C., Ben Mahmoud-Jouini S. et Edouard S. (sous la dir.), Les réseaux :
Dimensions Stratégiques et Organisationnelles - Paris – Economica – 2004 –
272p.
Prax, J.-Y. (2002). Le Management Territorial à l’ère des Réseaux – Editions
d’Organisation – 2002.
Prévost, P. (2002). La collectivité apprenante - Université de Sherbrooke - Juin
2002 - 136p, Téléchargeable le 12.09.2005 à l'adresse :
http://www.cefrio.qc.ca/rapports/Revue%20de%20litt%E9rature_Bernard%20S%
E9vigny.pdf
Ricordel, P. (1997). « La gestion publique locale : partenariat et performance.
Une étude empirique sur 20 communes-centres d'agglomérations françaises ».
Revue d'Économie Régionale et Urbaine, n° 3, pp. 425-449 – 1997.
Vachon, B. (2001). « Le développement local intégré : une approche humaniste,
économique et écologique du développement des collectivités locales », Québec,
Carrefour de relance de l’économie et de l’emploi du Centre de Québec et de
Vanier - 2001 - 25 pages.
Vachon, B. (1996). « Mettre le territoire en état de produire : le rôle des facteurs
sociaux, culturels et environnementaux dans la démarche de développement
local », in Côté Serge, Klein Juan-Luis et Proulx Marc-Urbain (dir.). Le Québec
des régions : vers quel développement ? Tendances et débats en développement
régional. Rimouski, Actes du colloque de la section développement régional de
l’ACFAS 1995, GRIDEQ, GRIR, Université du Québec à Rimouski -1996 - pp.
285-301.
51
52
Usage des dispositifs socio-techniques dans des situations de travail collaboratif
Imane ANOIR
Université Paul Valéry, Montpellier III, CERIC, France
Centre de recherche LGI2P, Ecole des mines d’Alès,
[email protected]
Jean-Michel PENALVA
Centre de recherche LGI2P, Ecole des mines d’Alès,
[email protected]
Usage des dispositifs technologiques de travail collaboratif
Le concept de collaboration, et précisément de « travail
collaboratif », est de plus en plus utilisé dans différents
domaines d'activité. Le travail dans ce contexte se fait au
travers de plateformes collaboratives dont l'objectif espéré est
de faciliter l'échange, la communication et le partage. L'usage
de ces plateformes est conditionné par la rencontre du besoin
des utilisateurs et de la familiarité technique avec ces outils
[BAZ, 04].
Le travail collaboratif est une modalité d'action qui
s'inscrit dans une dynamique d'action collective [LEV, 03] et
implique un collectif dont la nature peut être variable : les
groupes, l’équipe, la communauté et le réseau [PEN, 06]. Il
relève d'une activité sociale qui requiert la collaboration entre
plusieurs acteurs dès lors que l'action d'un seul acteur n'est pas
suffisante pour atteindre les objectifs prévus.
Y. F. Livian définit quatre modalités de collaboration
[LIV, 98]:
1Collaboration par l'adhésion : chaque acteur
voit un intérêt à agir avec les autres, car il
partage avec eux des objectifs qui ont été codéfinis, des valeurs communes et une stratégie
commune. La collaboration s'instaure par le
partage (coopération) et une synchronisation
des actions (coordination).
2Collaboration par contrat : La qualité du travail
collaboratif dépend directement de l'esprit du
contrat, de sa finalité et, bien entendu, de la
relation établie entre les co-contractants.
3Collaboration par la règle : les acteurs
acceptent des règles imposées par une instance
supérieure au nom des intérêts de chacun en
mettant en évidence qu'on peut avoir avantage à
collaborer.
4Collaboration par la contrainte : Dans ce
contexte, le participant n'a pas d'autre choix que
de « coopérer », contraint qu'il est par la
situation, par le groupe qui fait pression sur lui,
ou par la hiérarchie. Les conditions ne sont pas
réunies pour favoriser la communication, la
coopération et la coordination... donc la
collaboration.
Les structures organisationnelles seules ne suffisent pas
pour l'instauration d'une réelle relation d'échange et de
collaboration entre les acteurs, il faut un espace de respect,
d'ouverture et de reconnaissance de l'autre [RAC, 00].
Le présent travail de recherche s’intéresse à l’étude de la
collaboration au sein de communautés étendues, et a pour
terrain de recherche une communauté de chercheurs
scientifiques pluridisciplinaires. Les modalité de collaboration
qui s’appliquent à cette communauté sont la collaboration par
adhésion, et la collaboration par la règle. En effet, les
chercheurs de cette communauté adhèrent à un objectif
commun [LIK, 68] celui d'apporter des réponses scientifiques
au domaine de la toxicologie nucléaire. Aussi, ils partagent
communément les codes, les valeurs, les normes et les règles
[DEJ, 93] du système auquel ils appartiennent [MUC, 00].
Dans ce contexte, un chercheur est libre d’accepter de
collaborer avec les autres chercheurs, comme il est libre de
refuser cette collaboration, il n’est lié ni par un contrat de
collaboration, ni contraint à collaborer par une hiérarchie
supérieure. Les seules contraintes sont des contraintes morales
et d’intérêts pour atteindre les objectifs communs.
Présentation du projet de recherche
o Les acteurs
Ce travail de recherche porte sur une communauté de
chercheurs scientifiques qui sont réunis pour travailler sur le
thème de « la toxicologie nucléaire environnementale », ces
chercheurs adhèrent à un programme de recherche transversal
et pluridisciplinaire (ToxNuc-E). Lancé le 1er octobre 2001
par le Commissariat à l’Energie Atomique (CEA) pour une
durée de cinq ans, il rassemble aujourd’hui plus de 600
chercheurs issus de grands organismes de recherche français
organismes : CNRS, INSERM, INRA, CEA.
Le programme de recherche ToxNuc-E, mené par la
Direction des sciences du vivant du CEA [MEN, 04], est très
ambitieux par son ampleur scientifique et technique, et
présente des visées sociétales très perceptibles : il s’agit
d’enrichir le débat autour du nucléaire de réponses
dépassionnées et scientifiques sur le terrain de la toxicologie.
En terme d’organisation, le CEA a donc adopté pour ce
programme une structure plus réactive en mode projet: 15
projets transversaux et pluridisciplinaires, eux-mêmes
découpés en sous-projets.
Différents statuts de chercheurs sont impliqués dans le
programme, parmi les 600 chercheurs, on y trouve plus de 80
doctorants et post-doctorants financés directement par le
programme. L'ensemble de ces chercheurs sont répartis sur
plus de 20 sites géographiques. Les responsables projets
(coordonnateurs) et sous projet sont des chercheurs de haut
niveau (des référents scientifiques) qui reçoivent une
responsabilité
d’encadrement
dans
le
programme,
indépendamment de la structure des laboratoires auxquels ils
sont rattachés.
La direction de programme est assistée d’un comité
scientifique et technique qui audite les résultats scientifiques
du programme et fixe les orientations de recherche.
La finalité du programme, outre apporter des réponses
scientifiques, est annoncée dès son lancement comme la
52
53
constitution d’une communauté scientifique, active au-delà de
la fin du programme.
o Le dispositif technologique étudié
Dans ce contexte particulier, la direction du programme a
mis en place, dès le lancement de ce dernier, un dispositif
technologique (plateforme collaborative) afin de dynamiser les
échanges et les interactions entre chercheurs, créer des liens,
réaliser des construits collectifs (ontologie de la toxicologie
nucléaire, base de connaissances sur les éléments toxiques) et
offrir des représentations partagées [ANO, 05]. Pour
l'ensemble de l'organisation, la plateforme collaborative est
utilisée par la direction pour le référencement des
connaissances et des compétences, la communication interne,
l’animation de la communauté et la capitalisation des
connaissances. En d'autres termes, la plateforme collaborative
est utilisée pour la gestion du capital d'intelligence collective
de l’organisation.
Chaque chercheur est invité à déposer et consulter des
documents dans un espace partagé dédié à cette fin : le
référentiel de connaissances. Le référentiel de connaissances
est un ensemble de ressources et de références communes pour
toute la communauté ToxNuc-E. Les utilisateurs réguliers s'y
retrouvent facilement et repèrent rapidement les documents
récents.
La construction du dispositif est le fruit des réflexions et
de la collaboration de personnes chacune compétente dans des
domaines différents: direction du programme (vision
stratégique), cogniticiens et ingénieurs informaticiens (point
de vue technique).
Une fois le dispositif mis en place, un intérêt particulier a
été porté sur l'analyse sociologique de son appropriation par
les utilisateurs, et sur les situations d'usage et de consultation.
Dans ce sens, des projets de consultation [BEL, 06] ont été
mis en place, ces derniers ont permis une remontée des
informations relatives aux besoins des utilisateurs, et
d'améliorer quelques aspects relatifs à la représentation et à
l’appropriation.
o Technologie accessible
La plateforme ToxNuc-E utimlise l’environnement
informatique « Gsite » qui est un outil logiciel générateur de
plateformes collaboratives, ensemble de modules développés
et intégrés progressivement dans une bibliothèque logicielle.
GSite est un outil modulaire intégrant les briques
logicielles indispensables à la mise en place d'applications
collaboratives ; Il permet la création, le déploiement et la
gestion de ces applications, avec une grande flexibilité. Cet
outil est développé par l'Ecole des Mines d'Alès et la société
« ID Alizés33 ». GSite propose divers modules : forum,
annuaire, cartographie, statistiques, actualité, bibliographie,
… etc. Il permet la séparation de la forme et du contenu, la
structuration de ce dernier et sa représentation sous de
multiples vues. Ce type d’outils est communément connu sous
le nom de SGC (systèmes de gestion de contenu) ou de CMS
(Content Management System).
La structure modulaire de GSite permet une conception
adaptative et l'intégration d'outils spécifiques à certaines
communautés. Il y a des modules de base nécessaires à toutes
les applications collaboratives, des modules communs utilisés
par la majorité des applications, et des modules spécifiques
propres à une application particulière.
L'utilisation de la plateforme ToxNuc-E est facile et
accessible même à des chercheurs qui ne sont pas habitués à
l'utilisation des NTIC34, et l'appropriation est possible de
manière autonome ou en demandant de l'aide aux
33
http://www.id-alizes.fr
34
Communication
coordonnateurs et aux correspondants du référentiel.
L'accès au site est sécurisé ; pour accéder aux différents
services, un système d'authentification est mis en place, avec
des droits d'accès de différents niveaux : du simple visiteur,
jusqu’à l’administrateur, en passant par divers niveaux de
modérateurs et de contributeurs. Les chercheurs ont la
possibilité d'accéder à leur profil personnel et de le modifier
(coordonnées, organisme d'appartenance, lieu de travail ...).
Les profils des chercheurs sont consultables à partir de
l'annuaire, ce dernier constitue une référence identitaire de la
communauté ToxNuc-E.
Le dispositif socio-technique
Le référentiel mobilise des acteurs bien identifiés sur des
objectifs communs (les coordonnateurs de projets, les
correspondants de projets, les membres de la direction de
programme), permet la mise en place d’un circuit
d’information réactif (lettre électronique mensuelle, news,
rapports d’activités, enquêtes de terrain, conférences video en
différé) et incite les chercheurs à participer activement
(consultations régulières, dépôts de documents, bibliographie
partagée, publications, forums) [ANO, 05].
Afin de soutenir la construction de la communauté
ToxNuc-E, des actions de nature explicitement collective sont
mises en place : séminaires semestriels, sessions de
formations, ateliers communs.
o Communication interne et formation :
La lettre d’information - La Lettre du Programme
Toxicologie Nucléaire est un recto-verso mensuel qui sert de
lien entre les chercheurs des projets et permet une circulation
rapide de l’information utile à tous. C’est aussi un outil de
communication externe vers les Directions du CEA et vers nos
partenaires scientifiques et industriels.
Les séminaires - Tous les semestres, chaque projet rédige
un rapport d’avancement et présente ses résultats à la Direction
de Programme en présence du Comité scientifique, qui émet
des recommandations générales et par projets.
Le cycle de formation continue - Les personnes à former
sont les thésards, post-doctorants, techniciens et chercheurs
statutaires (CEA, CNRS, Inserm, Inra) intervenant dans le
cadre du programme de Toxicologie Nucléaire, en tout ou
partie de leur temps de travail, de formations initiales
diversifiées (biologistes, chimistes, physiciens, pharmaciens,
médecins…) Les résultats attendus de l’action sont les
suivants : intégration de concepts communs, amélioration de la
capacité d’interaction entre scientifiques issus de différentes
disciplines pour la réalisation du Programme. Les stagiaires
acquièrent un socle de connaissances communes en
toxicologie (concepts généraux, cibles des toxiques, méthodes
expérimentales, ….) ; les biologistes complètent leurs
connaissances en chimie des solutions et chimie analytique ;
les chimistes complètent leurs connaissances en biologie
cellulaire et biologie moléculaire ; les chimistes et les
biologistes complètent leurs connaissances en : statistiques
appliquées à la toxicologie ; épidémiologie ; physiologie
d’organes cibles.
o Actions collectives et construction de la communauté
:
Les ateliers - Des groupes de travail sont constitués afin de
fédérer des moyens et des compétences (ateliers imagerie,
sondes, analytique) ; deux ateliers sont chargés de réaliser des
actions d’intérêt commun : l’atelier bioinformatique et l’atelier
travail collaboratif. Ce dernier vise à spécifier les
développements souhaitables du référentiel et à organiser la
construction des savoirs collectifs.
Nouvelles Technologies de l’Information et de la
Le référentiel - une plateforme de travail collaboratif du
53
54
type "Référentiel de connaissances" est destinée à aider la
communauté scientifique à développer ses processus
collectifs : présentation des chercheurs et des équipes,
présentation du programme, capitalisation d'informations et de
résultats, partage de connaissances, communication interne,
archivage de documents institutionnels, espaces de travail en
commun, forums d'échanges, messagerie spécialisée, diffusion
d'informations au grand public. Des fonctions avancées de
cartographie dynamique des contenus permettent de suivre
l'évolution du fonds documentaire. Chaque chercheur inscrit
dans le programme est un contributeur autorisé à déposer des
documents, consulter les documents archivés, communiquer
avec les autres chercheurs. Un système de gestion de la
confidentialité permet de protéger la diffusion d'informations
au sein même de la communauté.
Ontologie de la toxicologie nucléaire - une ontologie est
une description formelle d'entités et de leurs propriétés,
relations, contraintes, comportements". [GRÜ, 95]. Elle
permet de modéliser la connaissance du domaine et de
standardiser le vocabulaire entre les différents acteurs.
Une ontologie ne peut se construire que collectivement car
il s’agit de formaliser un savoir pour le partager. La
construction de l’ontologie de la toxicologie nucléaire est
réalisée dans le cadre de l’atelier travail collaboratif.
L’ontologie est utilisée par certains modules fonctionnels de la
plateorme (indexation de documents par exemple).
o L’animation de la plateforme
La direction du programme assure l'animation de la
communauté et la gestion de la plateforme. Les chercheurs du
programme participent à l'animation avec des degrés
d'implication et d'engagement différents. Au minimum, ils
vont sur le site pour lire et/ou télécharger la lettre mensuelle
du programme. Pour cela, ils reçoivent un courrier
électronique en provenance de la direction du programme les
informant que la lettre est disponible sur le site dans la partie
« Vie du programme ».
Aussi, les utilisateurs peuvent aller sur le site pour
échanger des informations sur les forums thématiques et la
messagerie interne, accéder aux informations selon leurs droits
d'accès, et participer à l'enrichissement du référentiel des
connaissances en y déposant des documents.
Quelques mois après la mise en place de la plateforme, des
« correspondants référentiel » ont été nommés sur une
proposition de Michel Callon, de l’Ecole des Mines de Paris
(Centre de sociologie de l’innovation). Ces « correspondants
référentiel » sont issus des quinze projets du programme
ToxNuc-E, ce sont des chefs de projets, des documentalistes
ou des chercheurs. Les « correspondants référentiel » doivent
contribuer à une dynamique d’appropriation du référentiel
par les chercheurs, en assurant par exemple une alimentation
des données dans la plateforme, en assurant une recherche
des informations, en inscrivant et en donnant les codes et mots
de passe des dernières recrues, en alimentant les news, en
donnant des informations scientifiques sur de nouvelles
publications, de nouveaux protocoles mis en œuvre dans le
laboratoire… Ces correspondants référentiel sont pressentis
comme favorisant l’inscription sociale du site intranet auprès
des chercheurs, en aidant au développement des usages [BEL,
06]. Des réunions semestrielles sont organisées avec les
correspondants référentiel. Ces réunions sont l’occasion de
faire le bilan des évolutions éventuelles du dispositif, de
discuter des difficultés rencontrées par les chercheurs lors de
son utilisation, de discuter des besoins de ceux-ci en terme de
fonctionnalités et d’outils susceptibles de faciliter son
appropriation et par conséquent le travail collaboratif.
Quels usages ?
Les chercheurs peuvent être à la fois utilisateurs, acteurs et
auteurs. Ils utilisent les ressources disponibles sur le dispositif,
participent à l’alimentation du référentiel de connaissance en y
déposant des document dont ils sont les auteurs, et d’autres
dont ils sont utilisateurs.
L’objectif initial de la plateforme ToxNuc-E, tel qu’il a été
annoncé au départ, est de mettre à la disposition des
chercheurs du programme, un outil d’échange et de partage, un
espace de capitalisation des connaissances et de stockage
personnel ainsi qu’un outil de socialisation. Après cinq ans de
fonctionnement, les objectifs annoncés ont-ils été atteints ?
Comment et pourquoi ?
Des entretiens et des rencontres avec les utilisateurs ont
permis de distinguer différents types d'usages [BEL, 03]:
- Archivage : utilisation du dispositif comme disque dur
lieu sûr de stockage des documents « mes documents sont plus
en sécurité sur la plateforme que sur mon propre disque dur ».
Ces utilisateurs participent à l’enrichissement de la base
documentaire relative aux domaines de recherche étudiés dans
le cadre du programme, mais ne tirent pas parti de l’effort
collectif.
- Consommation : utilisation des ressources documentaires
déposées par les autres chercheurs. Ces utilisateurs se
comportent comme de simples consommateurs des ressources
collectives, mais ne contribuent pas au développement du
dispositif.
- Butinage : utilisation occasionnelle du dispositif, par
simple curiosité ou sous la pression de la direction du
programme. N’étant pas habitués à l’utilisation du dispositif,
les utilisateurs occasionnels peuvent ne pas trouver ce qu’ils
sont venus chercher, et peuvent alors mettre en doûte l’intérêt
du dispositif, voire véhiculer une mauvaise image.
- Contribution : utilisation fréquente ou régulière du
dispositif ; les utilisateurs réguliers connaissent bien le
dispositif, y ont développé des routines (ils vont directement
vers l’information ciblée), mais restent intéressés par les
changement et les nouveautés. Ces utilisateurs utilisent les
ressources déposées par les autres, et contribuent à leur tour à
l’enrichissement de ces ressources : « ils donnent pour
recevoir », ce sont des utilisateurs fidèles et actifs.
Les concepteurs de la plateforme y ont intégré, en accord
avec la direction du programme, des statistiques qui permettent
de connaître le nombre de visites par jour et par semaine, le
cumul des visites actualisé après chaque connexion, ainsi que
le nombre de pages visitées. Tous les chercheurs ont accès à
ces statistiques, et peuvent ainsi se situer par rapport aux
autres chercheurs. A ce jour, la plateforme compte 658
chercheurs inscrits. 243 chercheurs ont visité plus de 100
pages (seuil significatif pour nous), avec un maximum (à ce
jour) de 7029 pages visitées. Nous constatons que les visiteurs
actifs constituent 40% de l’ensemble des chercheurs du
programme ; les plus actifs sont pour la plupart des
responsables projets et des correspondants référentiel.
Quelques chiffres relevés sur la plateforme et notifiés dans le
tableau suivant montrent bien, d’une part l’augmentation de la
fréquentation, et d’autre part la focalisation sur un sousensemble de pages :
Visites
Pages visitées
visites par
jour
Moyenne de
pages visitées par
jour
Du 01/03/04 Du 01/03/05 Du 01/03/06
au 31/07/04
au 31/07/05 au 31/07/06
3039
4928
7647
87210
49742
39935
23
32
50
646
327
263
54
55
Pages par
visite
28
10
5
Sur les 5 mois pris en référence chaque année, la
fréquentation journalière n’est pas négligeable, dans la mesure
où les chercheurs permanents du programme sont des
biologistes, des chimistes, des physiciens, des médecins…
dont l’activité expérimentale importante ne les prédispose pas
à une utilisation quotidienne d’un poste informatique.
Nous pouvons néanmoins déduire que les chercheurs
s’approprient mieux le dispositif, et supposer qu’ils se sont
adaptés à celui-ci, le connaissent mieux, et vont directement à
l’endroit où se trouve l’information recherchée, ce qui
explique le nombre de pages qui diminue.
Comme nous l’avons vu précédemment, le programme
ToxNuc-E est organisé en mode projet, il regroupe des
chercheurs de différentes disciplines appartenant à différents
organismes et dispersés géographiquement sur toute la France.
En extrayant les informations de la base de données, et en
utilisant les outils de Web Usage Mining, nous pouvons
observer le comportement des utilisateurs au travers de la
plateforme, et accéder à d’autres informations quantitatives
relatives aux usages. Par exemple : le flux des documents
consultés dans le référentiel. La figure suivante nous montre
l’interaction entre les projets en terme de consultation des
documents par les chercheurs [DAL, 06].
Fig.1. Carte d’interaction inter-projets
(entre Mars 2004 et Avril 2006)
Le nombre total de lectures des documents d’un projet est représenté par la taille des cercles. Les liens verts représentent les
interactions entre les projets : les chercheurs du projet X vont lire les documents du projet Y ; plus le trait est épais, plus les
chercheurs du projet X s’intéressent aux thématiques du projet Y. Nous pouvons observer sur cette illustration, que le projet
MSBE est le plus consulté. L’explication tient à sa transversalité : développement de méthodologies analytiques nouvelles et
examen de leur viabilité sur le plan pratique par leur intégration dans d'autres projets du programme ToxNuc-E.
On constate aussi que la proximité thématique entre projets (repérée par la distance entre les cercles représentant les projets)
n’induit pas une lecture croisée plus importante.
D’autres représentations graphiques dynamiques sont à l’étude ; elles ont pour objectif de renvoyer à la communauté en
action des représentations de ses propres usages. La prise de conscience par un individu de son positionnement dans la
communauté et des comportements des autres contributeurs nous semblent une condition nécessaire au développement de
l’intelligence collective.
NOTES
[ANO, 05]
I. Anoir, J.M. Penalva, « Rôle de la confiance au
sein des collectifs collaboratifs », colloque "Culture des
Organisations et DISTIC", Nice, les 8 et 9 Décembre 2005.
[BAZ, 04] JM Bazin, « Usage de plate forme gratuite dans le cadre de
la préparation au CAPES de documentation », actes du colloque TICE
2004, UTC Compiègne.
[BEL, 03] O. Belin, J. M. Penalva, « De la médiatisation à la
médiation ou comment prévoir l’émergence des figures sociotechniques ? Le cas d’une communauté de chercheurs », CITE 2003,
Troyes, 2003.
[BEL, 06] O. Belin, « Complexité et intelligence collective », Thèse,
Montpellier, Université Montpellier3, 2006.
[DAL, 06] M. Dal Palu, « Acquisition d’un modèle utilisateur pour la
visualisation dynamique de liens dans le cadre d’un travail
collaboratif », Mémoire de stage de Master, Université Montpellier 2,
2006.
[DEJ, 93] C. Dejours, « Travail et usure mentale », Paris: Bayard,
1993.
[GRÜ, 95] M. GRÜNINGER, M.S. FOX, « Methodolgy for the Design
and Evaluation of Ontologies », Proceedings of the IJCAI Workshop
on Basic Ontological Issues in Knoweldge Sharing, Menlo Park CA,
USA: AAAI, 1995.
[LIK, 68] J.C.R. Licklider, R.W. Taylor, « The Computer as a
Communication Device », Science and Technology : For the
Technical Men in Management, n° 76, 1968.
[LIV, 98] Y. F. Livian, « Organisation: théories et pratiques »,
Dunod, 1998.
[MEN, 04]
M.T. Menager, « Programme Toxicologie
Nucléaire Environnementale : Comment fédérer et créer une
communauté scientifique autour d’un enjeu de société », Colloque
Intelligence Collective : Partage et redistribution des savoirs, Nîmes,
Septembre, 2004.
[MUC, 00]
A.
Mucchielli,
« Les
nouvelles
communications », Armand Colin, 2000.
[PEN, 06] J.M. Penalva, M. Commandre, « Typologie du travail
collaboratif, variations autour des collectifs en action », in
« Intelligence collective : Rencontres 2006 », Presses des Mines de
Paris, mai 2006.
[RAC, 00] G. Racine, O. Sévigny, « La construction d'une relation de
coopération entre des chercheurs et des intervenantes dans une relation
de partenariat », Recherche qualitative, Vol. 21, 2000.
55
56
Entre autorégulation, formalismes et constructions symboliques :
les paradoxes des « nouvelles formes organisationnelles »
Jean-Luc BOUILLON
LAREQUOI - Université Versailles St Quentin
Michel DURAMPART
LABSIC - Université Paris 13
Mots clés : Gestion Electronique Documentaire, Worflow, gestion de projets, Formes organisationnelles, régulations
organisationnelles
Cet article est issu de l’observation durant deux années
(2004 – 2006) de la mise en place d’un système de Gestion
Electronique Documentaire (GED) articulé à un workflow de
gestion de projets au sein de l’Institut de Formation
Automobile (IFA), organisme de formation professionnelle de
la branche automobile et composante du Groupement National
de l’Automobile (GNA), sous statut associatif. Cette structure
s’appuie sur un service logistique, un service pédagogique et
un département recherche et développement. Créé en 1990
pour des raisons marketing et d’image, l’IFA est maintenant
un label du GNA et se positionne comme un « département
opérationnel commerce » au sein du GNA. Il se compose au
moment de l’observation de quinze formateurs permanents et
soixante intervenants extérieurs répartis dans neuf domaines de
compétence (audit et conseil, recrutement, évaluation des
compétences, e-learning, web conférence, lancement produit,
organisation logistique, formation continue, formation
alternée, développement Web), quarante-deux « écoles de
vente », neuf « universités d’entreprise ». Les clients branche
et hors branche sont les constructeurs et les équipementiers.
L’une des particularités réside dans la nécessité de gérer une
problématique flagrante de répartition entre effectifs
permanents internes et externes, à laquelle la formation et les
systèmes d’informations doivent répondre en partie.
L’introduction de l’outil de gestion de l’information que nous
avons observée s’inscrivait dans un changement
organisationnel de grande ampleur, associé à une
normalisation.
Deux ans plus tard, la « nouvelle organisation » et ses
avatars technologiques apparaissent comme une fiction : plus
que jamais présents dans les ambitions de la direction, ils se
trouvent déconnectés d’une réalité quotidienne complexe et
mouvante. Mais si les acteurs prennent des libertés par rapport
au cadre technique et normatif imposé (sans quoi ils ne
pourraient mener à terme les projets dont ils portent la
responsabilité), ils tentent également de justifier leur rôle en
référence à ce même cadre, qu’ils se sont tout de même
appropriés. En d’autre termes, le dispositif prévu ne
fonctionne pas selon les modalités envisagées, ce qui constitue
un constat assez banal, mais il semble que ses grands principes
aient été intégrés par les acteurs : on ne peut donc parler d’un
« échec » même s’il ne s’agit pas non plus d’un « succès ».
L’organisation ne semble pas avoir changé en profondeur,
mais il n’en demeure pas moins qu’elle a évolué, dans les
représentations et les pratiques des individus qui la
constituent. Comment qualifier et conceptualiser cette
situation ?
Notre réflexion interroge les effets liés aux Technologies
de l’Information et de la Communication (TIC) et les
répercussions des discours et des projets managériaux qui
accompagnent leur intégration dans les organisations. Les TIC
et leur articulation aux structures et modes de fonctionnement
peuvent façonner les collectifs, ils contribuent à faire évoluer
la place, le rôle, les représentations des acteurs en situation,
notamment en ce qui concerne la mobilisation des
connaissances mises en situation. Dans une période de
mutation et d’adaptation permanentes, les TIC peuvent
constituer un objet qui cristallise les évolutions et les tensions
de l’organisation du travail. Des questions comme le passage
du contrôle de l’acteur à l’autocontrôle, les nouveaux
dispositifs de médiation, le positionnement individuel de
l’acteur face à l’émergence d’une d’intelligence dite collective
sont donc ici centrales. Cette recherche est aussi l’occasion
d’exercer une prise de distance critique en évoquant des
alternatives qui composent le jeu social et sociétal de
l’organisation face à des modèles imposés ou descendants, en
soulignant les paradoxes des façonnages socio techniques. Il
est ici question de chercher à relativiser des approches trop
rapides, inspirées d’une forme de déterminisme ou d’une
vision trop fortement techniciste. En fait, il nous semble que la
question du contrôle de la diffusion et la circulation des
connaissances devient un enjeu central dans la place que
prennent les TIC dans l’organisation. C’est l’occasion
d’exercer de nouvelles régulations qui ne s’affichent pas
explicitement mais laissent également de côté une réflexion sur
le projet de l’organisation collective et de ses capacités de
mutations réelles.
Nous retracerons dans une première partie la genèse et
l’évolution du projet au sein de l’IFA au fil des deux années de
l’observation, en articulant les différentes dimensions
organisationnelles impliquées. Nous nous focaliserons ensuite
sur les dimensions symboliques et sur les représentations
individuelles de l’activité, qui ont été transformées au fil de la
période. Enfin, nous examinerons comment, au-delà et en
avant de l’organisation elle-même, il semble qu’une « forme
organisationnelle », d’un niveau de problématisation plus
général, articulé aux évolutions sociétales, économiques,
idéologiques, soit progressivement intégrée et prépare
l’évolution voire la réorientation de l’organisation elle-même.
1. Genèse d’une rationalisation : retour sur le projet de
réorganisation de l’IFA
1.1. Le point de départ : les transformations socioéconomique de la branche automobile…
56
57
Depuis ses origines, l’IFA a fonctionné selon les principes
associatifs correspondants à la structure juridique du GNA.
Son objectif était de répondre aux besoins de formation initiale
et continue des différents industriels de l’automobile, en
matière de production, de réparation et de commercialisation
des véhicules et des services associés. La rentabilité ne
constituait pas un critère prioritaire pour des actions de
formation largement financées sur les cotisations
obligatoirement versées par les employeurs. Du fait de son
statut « d’organisme de formation de branche », les contrats de
formation étaient le plus souvent confiés à l’IFA sans véritable
mise en concurrence avec d’autres organismes de formation.
Au-delà, les formateurs, personnes expérimentées dans l’un
des
« métiers »
de
l’automobile
(technique,
commercialisation…) négociaient directement avec leur réseau
de contacts chez les constructeurs les contenus des formations
qu’ils concevaient, et qu’ils animaient eux-mêmes par la suite.
Ce fonctionnement largement axé sur un mode relationnel
privilégié et informel a été remis en cause au cours des
dernières années. Tandis que la concurrence s’accentuait, la
demande des constructeurs a évolué vers des formations surmesure. Ces dernières se sont révélées simultanément plus
spécifiques, du fait de la démultiplication des modèles de
véhicules, de l’accroissement du rythme de leur
renouvellement, de l’évolution des comportements d’achat et
d’usage de l’automobile ; et plus génériques, dans la mesure
où le contenu des formations renvoyait davantage au
financement, à la vente, qu’au aspects techniques. Un vendeur
automobile en concession commercialise désormais davantage
un « service de transport » associé à une solution d’entretien,
d’assurance, à une garantie longue durée et à un engagement
de reprise, qu’une automobile. Nul besoin d’être un organisme
de formation spécialiste de l’automobile pour répondre à une
telle demande, il faut par contre être un spécialiste de la
formation professionnelle. Dès lors, tous les organismes de
formation présents sur le marché devenaient potentiellement
concurrents de l’IFA, qui ne se trouvait plus en situation de
contrôle d’un marché captif. Ceci est d’autant plus le cas que
les exigences de qualité de la part des donneurs d’ordre se sont
renforcées au point de ne plus se satisfaire des contrats
préalablement négociés de gré à gré. Dans le prolongement de
la généralisation de l’assurance qualité, la sélection d’un
prestataire de service devait être formalisée et normalisée. De
même les missions effectuées par ce dernier devaient répondre
à un cahier des charges précis, et donner lieu à des résultats
évaluables. L’affirmation selon laquelle la formation n’est pas
une dépense mais un investissement prend ici toute sa réalité.
Enfin, tout en demeurant une association, l’IFA se devait de
rentabiliser ses formations, face à une branche industrielle plus
exigeante vis-à-vis de l’utilisation des budgets de formation
continue.
Cette évolution a poussé l’IFA à intégrer une attitude plus
prospective, plus réactive, engagée dans des démarches de
qualité et de « performance ». Ceci impliquait une réduction
des coûts de revient et des délais de développement d’une
réponse clientèle : il a ainsi été nécessaire que l’institut se
positionne encore plus près de sa clientèle par des dispositifs
de suivi et d’accompagnement. Du point de vue de
l’organisation de la production et des ressources humaines, la
mutation se tradusit par le passage d’un savoir faire centré sur
la formation à un savoir faire centré sur le conseil.
L’organisme fonde désormais de plus en plus sa valeur ajoutée
dans le sur mesure que dans la formation établie sur catalogue.
L’IFA a donc du refondre son organisation en développant une
véritable démarche de gestion de projet, appuyée sur la mise
en place d’un outil de gestion de l’information, par
l’instauration de procédures strictes pour la conception et la
réalisation des formations, et par l’identification de spécialistes
fonctionnels destinés à suivre la mise en œuvre de ces
procédures aux côtés des formateurs. Organisation à but non
lucratif, l’IFA s’est engagée comme de nombreuses autres
structures dans une rationalisation de son organisation
touchant tous les aspects relatifs à la transmission et au
traitement des informations, aux méthodes et procédures
productives, à la communication et au travail collaboratif.
C’est ainsi l’ensemble des processus cognitifs qui ont fait
l’objet de rationalisations dans la mesure où ils se trouvent au
cœur de l’efficacité productive. Il prend en effet place dans un
véritable dispositif de rationalisation de l’organisation,
présent sur de multiples niveaux articulant le matériel et le
symbolique. Un dispositif désigne « un ensemble hétérogène
de discours, d’institutions, d’aménagements architecturaux, de
supports matériels, de règlements, en relation les uns avec les
autres ». Il fait référence à la fois à chacun éléments
hétérogènes, en relation les uns avec les autres, et à la nature
du lien qui les relie. C’est ainsi un espace d’action et
d’interaction fermé sur lui-même qui se met en place : ce
dernier se caractérise par un quadrillage temporel définissant
les actes, leur durée, leur enchaînement, par la définition d’un
rôle et d’un emplacement spécifique pour chaque acteur, et
enfin par une surveillance omniprésente, dite « panoptique »,
assurant l’autocontrôle de chacun en raison de la certitude
d’être sous la visibilité et le contrôle du système.
1.2 Un dispositif de rationalisation cognitive
La face la plus visible de ce dispositif de rationalisation
cognitive est certainement constituée par un système de
Gestion Electronique Documentaire (GED) mis en place au
début du printemps 2004, et associé à un workflow
documentaire, dédoublant les procédures de gestion de projets
et surveillant leur bonne application.
Cet outil devait en premier lieu favoriser le retour
d’expérience, c'est-à-dire la capacité de l’IFA à tirer profit de
l’expérience acquise au cours de chacune de ses missions, en
évitant de commettre plusieurs fois les mêmes erreurs et en
réutilisant autant que possible les propositions commerciales
déjà proposées pour répondre à de nouvelles demandes plus ou
moins similaires. L’objectif final était évidemment de réduire
les délais de développement, et donc les coûts de revient. Une
telle démarche impliquait l’archivage strict des cahiers des
charges et des documents commerciaux et pédagogiques, pour
assurer leur récupération et la mobilisation des connaissances
qu’il contenait dans le cours de l’action. En second lieu, cet
outil devait contraindre à la mise en œuvre des formalismes de
la gestion de projet et notamment de rédaction des cahiers des
charges fonctionnels. En effet, les différentes fiches
récapitulatives, constituant les « livrables » des différentes
phases, devaient obligatoirement être remplies sur l’interface
du workflow, la validation de chaque étape étant indispensable
à la poursuite du travail. Il s’agissait de mieux répondre aux
demandes plus complexes et sur-mesure des clients, sous
contrainte de coûts et de rentabilité, et, suivant une expression
souvent entendue, de « passer d’une culture métier à une
culture projets », dans laquelle la formalisation est présentée
comme la condition de l’efficacité. Au-delà de la capitalisation
et de la mise à disposition des documents, il s’agissait donc de
conserver une trace écrite et formelle de chaque phase de
l’activité liée au montage d’un projet (proposition
commerciale, cahier des charges) et d’attester de sa réalisation.
Mais dans le même temps, ce système permet de prescrire
formellement l’articulation entre les différentes tâches, leur
réalisation dans un ordre logique, prédéfini et cohérent, ainsi
57
58
que déroulement effectif de ce processus. La centralisation de
l’information autorise aussi la surveillance, le suivi du temps
passé par chacun et des coûts de revient associés, même si
cette dimension de contrôle fut rarement mise en avant, du
moins officiellement.
Ce système technique associant workflow et GED ne peut
donc être compris de manière isolée. Il s’accompagne de la
création de nouvelles fonctions de l’organisation spécialement
dévolues à la mise en œuvre des pratiques de gestion de projet,
et au recrutement de nouvelles personnes pour occuper les
postes de travail correspondant. De telles compétences se
situaient davantage en externe qu’en interne : l’institut s’est
donc doté de nouvelles fonctions qui orchestrent les ressources
et ont un recul sur l’activité en faisant le constat que le
spécialiste de la formation appuyé sur sa connaissance du
secteur ne suffit plus. C’est la notion d’expertise qui s’affirme
dans cette situation. La gestion et l’orientation nouvelle des
ressources humaines de l’institut est donc marquée par le
passage des « hommes métiers » aux hommes compétences »
(dans le jargon de la direction), pour qualifier des personnes
davantage spécialisées dans la relation de service que dans
l’une ou l’autre des activités de l’automobile. En deux ans,
apparaissent ainsi au sein de l’organisation des chargés de
clientèle, responsables du suivi des clients de la prospection au
recouvrement, pour l’ensemble du GNA, dont l’IFA. Ces
derniers s’accompagnent de chargé de mission est créée, dans
un objectif identique mais avec la charge d’un seul client
« grand compte », par exemple un constructeur automobile
représentant à lui seul une part importante du chiffre
d’affaires. Parallèlement, la fonction de responsable de
secteur apparaît : le champ de responsabilité est toujours très
proches des attributions des chargés de mission et de clientèle,
mais selon une logique de répartition par produits, par
exemple les véhicules neufs, les véhicules d’occasion ou
encore les services financiers. Enfin, toujours au cours de la
même période, sont recrutés des ingénieurs pédagogiques,
chargés de concevoir les propositions pédagogiques pour tous
les types d’activités et de clients, en relation avec les
intervenants précédents. Ce n’est donc pas moins de quatre
fonctions qui apparaissent au sein de l’IFA et dans les
procédures de gestion projets, là où il existait auparavant
surtout des formateurs inscrits dans une logique « métier ».
Système technique et recrutement des postes fonctionnels
sont indissociable d’une démarche de normalisation, qui, sans
se traduire (pour l’instant ?) par une certification ISO 9000, se
caractérise notamment par la définition de procédures strictes
pour la gestion des projets, principalement en ce qui concerne
les phases amont d’étude de la demande et de conception.
Pour donner un exemple d’une procédure de gestion de projetréponse clientèle, nous restituons la description que nous a
présenté un manager impliqué dans la recherche et le
développement de l’Institut puis du groupement. Il nous faut
préciser qu’il s’agit bien d’un idéal théorique issue de la vision
qui est retracé ci-après, nos observations et recherches
viendront ensuite nuancer ou relativiser le processus qu’il nous
retrace.
« On peut prendre l’exemple du Lancement d’un nouveau
véhicule modèle sport qui nécessite la formation de 5 à 6000
personnes sur 3 semaines. Que la demande soit formalisée ou
pas, on établit une fiche d’identification demande (inscrite
dans une nomenclature documentaire). S’en suit une
démarche interne dans un projet initial ou externe et une
réponse client qui va monopoliser 4 ou 5 personnes à temps
plein. Il en découle une formulation d’une proposition
pédagogique : développement site web, itinéraires,
évaluation, reporting, diagnostic, logistique (management
équipes). Depuis que l’outil électronique est en place,
l’initiation du projet se fait en workflow dés que la réponse est
faite au client (classée indexée dans la GED qui n’as pas de
lien technique avec le WF). Chacune des étapes du processus
de qualité a été intégrée pour construire la structure WF,
l’IFA étant pilote des services des applications pédagogiques
et de la coordination opérations internes/externes. Dans cette
procédure il y a beaucoup d’aller et de retour, de production
d’éléments pour l’intervention soumis à un système de qualité
version 94. Le WF permet donc une modélisation de
procédures. Tout le monde peut être chef de projet qu’il soit
interne ou externe. . .. Le Pôle de compétences suppose un
management des compétences internes. L’externalisation
concerne uniquement ce qui n’est pas dans les compétences de
l’IFA. Le SI est alors un des éléments incontournable de
l’exigence de déploiement du système qualité.»
Cette démarche de normalisation possède en premier lieu
une orientation externe, qui vise à formaliser les relations avec
les clients, en renforçant la dimension contractuelle et en
matérialisant les différentes phases de négociation par autant
de composantes d’un cahier des charges. On peut comprendre
l’intérêt d’une telle codification des pratiques dès lors que
l’organisation est contrainte de gérer des demandes plus
complexes, évolutives, avec une évaluation plus poussée des
résultats. Mais cette démarche de normalisation renvoie
également à une finalité interne : il s’agit d’établir des
procédures de travail strictes permet de mieux les contrôler, de
codifier les savoirs et les savoir faire qu’ils contiennent, de
connaître avec davantage de précision ce qui est réalisé par les
différents acteurs, de mesurer combien de temps est consacré à
une activité et ce qu’elle coûte.
En définitive, le système GED-workflow, les nouvelles
fonctions ainsi que les démarches de normalisation se
rejoignent : ils assurent le « quadrillage temporel », la
répartition des rôles et le contrôle panoptique qui caractérisent
un dispositif, tout particulièrement tourné vers la
rationalisation des processus cognitifs associés à l’information
et à la communication en l’occurrence. Toutes les dimensions
de l’organisation sont concernées, qu’il s’agisse des activités
de production et de commercialisation en tant que telles, des
relations de travail (relations de prestation de services
internes), du système de règles formelles et de la coordination
sociale associée aux régulations autonomes. L’objectif global
est clairement fiabiliste : il s’agit d’améliorer l’efficacité, de
mieux répondre aux clients, de lutter contre la non-application
des procédures. Comment ce dispositif, en apparence très
complet et fort cohérent, se comporte-il lorsqu’il est confronté
à l’épreuve de la réalité de l’organisation ?
2.
L’émergence
organisationnelle ?
d’une
nouvelle
forme
2.1. De l’organisation voulue à l’organisation réelle :
échec relatif ou succès mitigé du dispositif ?
Entré en service au printemps 2004, les différents éléments
du dispositif ont été mis en place de manière hiérarchique,
dans le cadre d’une décision de la direction sans concertation
ni négociation. Particulièrement révélateur de cette situation,
le système de GED a ainsi été déployé du jour au lendemain en
lieu et place d’un outil de transfert et de stockage de fichiers
basé sur le protocole FTP, institué par la pratique pour
répondre aux besoins des différents acteurs. Selon la direction,
seule une rupture radicale assortie d’une utilisation obligatoire
pouvait garantir l’appropriation et l’utilisation du nouveau
58
59
système. Dans le même temps, des recrutements correspondant
aux nouveaux profils fonctionnels se sont déroulées en
quelques mois, parallèlement à la mise en place des procédures
de gestion de projets. A première vue, l’organisation de l’IFA
apparaît donc très structurée, hiérarchisée et formelle. Dans les
faits, force est de constater plusieurs déconnexions
importantes, entre le fonctionnement effectif de l’organisation
(organisation réelle) et la configuration que la direction aurait
souhaité qu’elle prenne (organisation voulue), mais aussi entre
l’équipe dirigeante et les équipes projets.
Notre enquête a tout d’abord montré que le dispositif de
rationalisation de l’organisation tel qu’il était envisagé n’avait
dans les faits jamais fonctionné. En premier lieu, l’outil GED –
workflow n’a jamais été véritablement utilisé. Le workflow n’a
pas dépassé le cadre expérimental, et la GED s’est retrouvée
reléguée à remplir une fonction de stockage de documents
individuels tout en inspirant de nombreux sarcasmes. Des
problèmes de conception de la solution informatique retenue
ont indiscutablement joué un rôle important dans le fait qu’elle
ne soit pas utilisée. D’une part, le manque d’ergonomie dans le
classement et l’accès aux documents a rebuté les utilisateurs,
de même que la lourdeur et la longueur des procédures
d’inscription des documents. A titre indicatif plusieurs
minutes, voire plusieurs dizaines de minutes pouvaient être
nécessaire pour indexer correctement un document, et la
gestion des autorisations de lecture – à reprendre pour chaque
document – étaient particulièrement complexes… personne
n’étant autorisé par défaut, les lecteurs non autorisés ne
pouvant même pas constater l’existence du document
recherché sur un serveur. Le cercle vicieux était en marche : un
outil de stockage documentaire mal adapté est peu utilisé pour
le dépôt de documents, il est considéré comme incomplet et
non fiable par les usagers, qui trouvent à juste titre qu’il est
plus rapide de mobiliser leur propre réseau professionnel pour
obtenir les documents attendus. Cependant, les problèmes
techniques et ergonomiques ne sauraient expliquer à eux seuls
les difficultés rencontrées. En amont, un mauvais choix de
logiciel doit souvent être rapproché d’un manque de réflexion
et d’une mauvaise compréhension de l’organisation : il est en
lui-même révélateur d’autres difficultés au sein du dispositif.
Ainsi, les acteurs occupant les nouvelles fonctions n’ont
pas vu leur poste et leurs attributions définis clairement par
une lettre de mission. Les fonctions de chargé de clientèle, de
chargé de mission, d’ingénieur pédagogique, de responsable
de secteur, se superposent sur bien des plans, et les intéressés
recherchent leur place. Ils sont contraints de définir leur
espace, d’acquérir leur légitimité, de justifier leur rôle et tout
simplement leur utilité. Paradoxalement, le rôle de chef de
projet, central dans une « organisation projet », n’est explicité
nulle part, et peut être assuré – selon des critères mal définis –
par n’importe quelle personne salariée titulaire de l’IFA. Dans
les faits, la répartition des rôles associés se fait surtout en
interne. Elle est liée aux différentes activités, qu’il s’agisse de
prospection, de contacts clientèle, de conception des cahiers
des charges et s’effectue selon des arrangements locaux,
ponctuels, en fonction de la disponibilité de chacun, de ses
compétences, de ses contacts et de sa volonté. Enfin, les
procédures normalisées de gestion de projet sont suivies a
minima, seules les fiches récapitulatives de lancement de
projet et d’identification de la demande étant remplies,
éventuellement a posteriori. Le dispositif formel que nous
présentions plus haut n’est donc jamais entré véritablement
entré en fonction au cours des deux années de notre
observation. Sa cohérence et le verrouillage panoptique qui le
caractérisait, ne semblent avoir eu d’existence réelle que sur le
papier, dans les discours, dans les décisions politiques, mais
guère dans les processus organisationnels.
Plusieurs observations rendent cette situation surprenante,
voire paradoxale. En premier lieu, la direction de l’IFA, qui
apparaissait fortement autoritaire si l’on considère le
management de la réorganisation, n’a jamais sanctionné le fait
que les procédures normalisées ne soient que très
imparfaitement suivies, et que le système de GED ne soit pas
utilisé, alors qu’il avait été présenté comme obligatoire. De
même, tout en insistant sur la nécessité d’accroître l’efficacité
productive, cette même direction se déclare, pour l’instant,
incapable de mesurer le coût réel et le degré de rentabilité d’un
projet, faute de disposer des outils de comptabilité analytique
indispensables. Pour autant, l’IFA continue de fonctionner,
même si son chiffre d’affaire est en légère baisse, et les projets
sont correctement réalisés du point de vue des clients. Au delà,
la logique projet a été complètement intériorisée par les
différents acteurs, comme un cadre de référence central. Il en
est de même des enjeux économiques et comptables, au point
que plusieurs ingénieurs pédagogiques, chargés de mission et
de clientèle, chefs de projet, aient élaboré eux-mêmes leurs
outils de reporting, sans aucune demande externe. Chacun
s’inscrit pleinement dans la « cité par projet », aussi bien sur le
plan de l’organisation de son travail, de la reconnaissance de la
place centrale du client, que de l’intériorisation des contraintes
et évolutions sociétales externes qui rendent inéluctables ces
nouvelles manières de travailler. Dans un environnement
mouvant, concurrentiel, incertain, il convient d’être efficace
économiquement, autonome, réactif, à la disposition d’un
client volatil : tel est le nouvel « esprit du capitalisme », qui
étend son influence à tous les types d’organisation, pour
reprendre l’expression de L. Boltanski et L. Thévenot.
Tout en reconnaissant ce cadre général commun, les
différents acteurs conservent donc une représentation de la
gestion de projet qui leur est propre, les procédures étant
appliquées d’une manière spécifique à chaque demande, tout
en étant rapportées aux documents normalisateurs. Les salariés
permanents de l’IFA regardent leur Institut avec une certaine
fierté, s’approprient des éléments de l’évolution et de la
performance de cette organisation. Une des personnes
rencontrées le désigne comme étant dans le « top five des
organismes de conseil » dans ce secteur avec une démarche de
qualité. Par ailleurs l’institut est décrit comme un organisme
pilote d’un groupement professionnel de référence dans le
secteur automobile, du fait d’un engagement dans la
formalisation par l’accompagnement de l’activité et par des
outils de capitalisation et de traçage des processus de travail.
Ce constat permet d’évoquer l’importance de la réflexivité
dans cette situation où TIC et évolution des activités et des
méthodes de l’organisme s’entrecroisent. Enfin, l’Institut doit
maintenant se situer au cœur des objectifs et stratégies du
groupement et devient d’un certaine manière une branche
d’activité métier alors qu’il bénéficiait auparavant d’une plus
grande indépendance moins directement liée à des objectifs
commerciaux et financiers. La fonction pionnière, pilote, de
l’IFA qui est reconnue par ses membres devient alors plus
délicate : elle est amenée à rejaillir sur l’ensemble du
groupement et se situer plus maintenant au cœur même de
celui-ci qu’au sein de l’IFA, ce qui peut traduire une perte de
singularité chez ses membres. D’ailleurs, tous les acteurs
partagent une forme d’inquiétude commune sur la place de
l’IFA dans le groupement (non pas au sens de la contestation
mais plutôt sur ce que deviendra la légitimation du rôle de
l’IFA).
2.2. Une organisation paradoxale ?
59
60
L’IFA semble donc constituer une forme d’organisation
inhabituelle voire paradoxale, que nous serions tentés de
qualifier de « hiérarchico-autonome », dans la mesure où elle
repose sur le fonctionnement simultané d’un management
fortement autoritaire et formalisateur, mais déconnecté de
structures projets fonctionnant de manière autonomes, voire
indépendantes. La démarche de gestion de projet a rendu
l’organisation plus mouvante, centrée sur l’apprentissage (auto
apprentissage) permanent en liaison avec des normes, des
références mais qui ne constituent pas actuellement un capital
intégré et collectif. Il s’agit plutôt d’une référence disséminée,
intériorisée, diversifiée. Il y a une forme de cadre garant de la
gestion de projet sous contrôle de procédure homogènes qui de
fait semble plus s’établir comme une référence partagée mais
hétérogène. Ce décalage entre l’organisation voulue et
l’organisation réelle repose sur trois axes majeurs.
En premier lieu, l’organisation de l’IFA est hétérogène,
dans sa définition et sa représentation selon les acteurs, leur
rôle et leur positionnement, prise dans un processus de
changement permanent. L’organisation « voulue » est donc
seulement vécue comme une possibilité parmi d’autres.
Parallèlement, le modèle d’organisation « voulue » qui est
proposé dans la réorganisation se heurte à une approche
individualisée où les rôles et attributions de chacun sont
susceptibles d’être bien définis mais sont de fait mouvants
selon le rôle antérieur aux mutations récentes, la place que les
acteurs occupent temporairement dans la culture projet (chef
de projet, formateur référent, acteur-ressource). Ce système de
rôles intériorisés entre en complément ou en opposition avec
une culture faite de référents communs et collectifs associés
aux métiers et à la réorganisation. Enfin, tandis que les
contraintes externes – concurrence, pression des clients,
exigence de flexibilité – tendent à être internalisées, le rôle des
prestataires externes, en particulier les formateurs, n’est
pratiquement jamais évoqué par les acteurs que nous avons
interrogés alors qu’ils occupent une place croissante. Il est à
noter que les formateurs titulaires de l’IFA font de moins en
moins de formation en face à face des stagiaires, mais assurent
principalement des fonctions de conception pédagogique, ce
qui les rapproche des « ingénieurs pédagogiques » en titre.
De fait, ce que nous décrivons ici comme un système
identitaire et actanciel, renvoie à l’affrontement entre un
processus de rationalisation qui se développe sans tenir
compte du passé et une culture intégrée dans les références
métiers/rôles/missions des acteurs, issue
du poids de
fondamentaux encore présents dans l’esprit de nombreux
acteurs. Pouvons nous parler d’une lutte entre deux formes
d’acculturation ? L’une prenant ses sources dans l’histoire de
l’institut, ses racines, son positionnement de spécialiste du
métier de l’automobile, face à l’autre plus axée sur la
compétence conseil, expertise, qui s’éloigne de la spécialité
métier pour évoluer vers l’ingénierie de formation et de conseil
appliquée au secteur automobile. Il s’agirait de la coexistence
et de l’opposition entre une organisation ancrée dans les
pratiques et une autre, à l’état de modélisation. Ainsi,
l’organisation « voulue » décrite et prescrite dans le dispositif
de rationalisation organisationnel articulant GED – workflow,
nouvelles fonctions et formalisation des activités, apparaît très
décalée par rapport à l’organisation réelle. Au-delà de sa
traduction concrète dans les formes de l’organisation, ce
dispositif apparaît comme une construction symbolique, qui
vise à donner une image de rationalisation des activités plus
qu’il ne les rationalise véritablement. Il décrit l’organisation
telle qu’elle devrait être pour respecter les principes de gestion
de projet conventionnellement admises (l’idéal type de la
« cité par projet »…) sans que la non application des
prescriptions ne soit sanctionnée. Néanmoins, la présence de
ce dispositif est suffisamment forte pour susciter l’autocontrôle
et l’intériorisation des objectifs organisationnels, voire la
justification des actions en référence aux principes de
« projet ». On peut se demander si l’efficacité des TIC et des
transformations organisationnelles associées ne résiderait pas
davantage dans les changements de représentations qu’elles
induisent et relaient, dans leur capacité à susciter mobilisation
individuelle, autocontrôle et autorégulation, que dans leur
contenu effectif.
Au-delà du changement réel de l’organisation par la mise
en œuvre du dispositif, c’est davantage la référence à une
forme organisationnelle idéale-typique – l’organisation
associée à la cité par projets – qui prévaut. Ses contours
renvoient à des représentations communément admises, à des
outils informatiques, à des structures et participant à
l’invocation d’un cadre idéologique décrivant une organisation
gérant des flux de projets, flexible, efficace et compétitive
grâce à la normalisation et aux TIC. L’organisation et sa
représentation performative se rejoignent...
3. Processus de cadrage du système socio-technique et
« forme organisationnelle »
3.1. Dispositif et « processus de cadrage »
L’intériorisation
des
valeurs
de
cette
forme
organisationnelle générique semble s’opérer au travers de rôles
joués par les acteurs en situation, et plus largement, dans la
mise en scène, au sens où l’entend Goffman, de leur action
pour qu’elle apparaisse sérieuse auprès de leurs partenaires. Ils
s’adaptent de manière primaire, en se conformant au rôle que
l’on attend d’eux, mais aussi de manière secondaire, dans la
mesure où ils dérogent aux règles prévues pour conserver leur
identité mais aussi pour parvenir à réaliser leurs objectifs. Ces
processus de cadrage, qui conduisent à définir le contexte des
interactions afin d’orienter les interprétations, s’appuient sur
des normes extérieures, les adaptent, mais en même temps
contribuent à les propager. Il y a finalement un point
d’achoppement entre le symbolique et le fonctionnel. Si la
gestion de projet a trouvé sa place et si elle est légitimée par
les acteurs sur la base de motivations souvent identiques
(changer, être plus performant, avoir un capital de mémoire
réactive, mieux maîtriser les coûts et la réactivité de la
démarche en équipe) ; elle est diversement intégrée dans les
pratiques et diversement appropriée par rapport aux normes de
fonctionnement et aux outils intégrés dans le dispositif. Il y a
donc des enjeux significatifs liés à la légitimation, à l’identité,
à la place, au rôle, et à une dimension collective homogène.
Nous rappelons à ce sujet l’expression de Goffman de
« contexte social structurant, dans lequel plusieurs
rassemblements sont susceptibles de se former, de se
dissoudre et de se reformer, et dans le quel un modèle de
conduite tend à être reconnu comme le modèle approprié et
souvent officiel, ou comme le modèle voulu »
Dans ses différentes composantes (outil, normes,
fonctions) et bien qu’il ne soit pas opérationnel selon les
modalités initialement prévues, le dispositif intègre les
dimensions macro et micro sociales de l’activité, et permet
d’établir des liens, ou des disjonctions, entre le positionnement
individuel (la place de chacun) et collectif (contraintes,
prescriptions organisationnelles, représentations individuelles
de ces enjeux). Il contribue à façonner différemment les tâches
et l’évolution de la fonction dans une dynamique associant
formel et informel. Dans le cas de L’IFA, l’outil de gestion de
l’information est présenté comme devant être un support de
formalisation de taches, qui se traduit sous la forme de gestion
60
61
de projets. Il doit aussi favoriser la reprise de connaissance et
le retour d’expériences sur des projets. Il englobe ainsi une
fonction de mémoire partagée et une fonction éditoriale, avec
des droits de consultation et d’écriture répartis en liaison avec
le statut des personnes ou du rôle qu’ils peuvent jouer. Audelà, ce même outil devient alors pour beaucoup un alibi de
fonctionnement collectif et référentiel. Il sert alors des usages
individualisés (consultation par un chef de projet d’anciens
projets compilés, fonction mémoire et rappel, utilitaire) mais
sans que le requérrant sache s’il dispose de la bonne version.
Ce peut être aussi un outil de veille et de recherche en fonction
d’un projet spécifique, fonction de stockage (mise en ligne de
versions de documents réalisée lors de démarrage de projets
ou de réponses clients avec les problèmes d’identification
soulignés). Il s’interpose donc dans la tache plus que dans
l’activité, comme un support de ressources individualisé en
fonction des besoins. Ce n’est plus un outil de capitalisation
collective mais plutôt d’empilement de ressources
individuelles. L’outil est donc réapproprié, mais non partagé et
s’insinue dans des usages particularisés. Il n’a donc pas une
dimension structurante et organisante. Il stimule les opérations
des acteurs dans une démarche singulière mais il ne peut
constituer un support organisationnel pour définir des
pratiques communes et harmonisées. Pour autant, il prend
place dans des logiques de projet largement intériorisées.
De fait, lorsqu’on entre dans le social et le construit vivant
, on s’aperçoit qu’il y a plus de principes que de réalités quant
à l’ensemble de ces prescriptions. L’outil se révèle de fait
contraignant quant à la saisie et à la formalisation
d’informations, le recours à des processus de validation
éditoriale étagée est complexe et peu réactive. Les usages
individuels fortement marqués par une culture métier liée au
domaine de la formation dans les activités de vente ou de
techniques liées à l’automobile résistent à des procédures
généralisantes et communes d’autant
plus qu’une
sensibilisation à l’outil ne s’est pas faite de façon suivie et
surtout que des démarches d’accompagnement n’ont pas eu
lieu. Les motivations vis-à-vis de l’outil apparaissent comme
très hétérogènes. La panoplie des outils qui devait fonder une
culture de travail intensive et globalisée se traduit plutôt par
des positionnements réactifs, individualisés. Il y a une forme
de capitalisation mais sans qu’une identification précise des
ressources informationnelles soit possible quant à l’utilisation
des documents remplis sans références identiques d’un acteur
à l’autre (quelle version, à quel moment, pourquoi,
identification de l’auteur en fonction d’une légitimité). Les
utilisations de l’outil s’orientent donc plus vers la gestion des
ressources de métiers et de tâches en situation que comme un
dispositif orienté vers la compétence (l’idéal du Knowledge
Management). Enfin, les représentations sont éclatées selon les
acteurs, avec des traces encore prégnantes de la culture métiers
(individualisme, perception axée sur le produit moins que sur
la démarche, persistance d’une qualité de la réponse fondée
encore dans la relation avec un catalogue de formation
impliquant une réponse apprêté) et moins sur la proposition
adaptée à la demande. Ceci instaure une disjonction entre
l’outil de gestion de l’information et les pratiques, qui s’étend
à l‘ensemble du dispositif de rationalisation. Il semble
impossible que le dispositif et les procédures puissent se
positionner entre deux cultures : une culture d’ingénierie (faite
de référencements, de contrôle), et une culture métier (qui
s’appuie sur des ressources en situation et un partage de
savoirs liés au besoin et non au principe établi).
3.2. Bilan : l’intégration d’une forme organisationnelle
plus que le changement de l’organisation ?
Les outils et les dispositifs dans lesquels ils s’inscrivent
sont censés en théorie fonder la « dynamique de
l’organisation » dans le cadre d’une « bonne conduite
collective », impliquant références communes et des
comportements homogènes. Force est de constater que ce n’est
pas vraiment le cas de l’outil que nous avons observé… Ceci
ne dépend peut être pas du système technique ni des éléments
normatifs et fonctionnels qui l’accompagnent, mais d’un
travail de réflexion/conception collectif qui n’a pas été effectué
ou trop partiellement, et n’a pas produit des façons de faire
reposant sur un socle de partage d’objectifs en fonction de la
diversité des rôles (acteurs/production). De fait le système
d’informations lié à la plate forme documentaire ne peut
prétendre fonder des procédures organisationnelles. La
capitalisation semble fonctionner du côté des ressources
ponctuelles, opportunes, pour chaque acteur à leur niveau et
dans leur situation, c’est donc un dispositif de
ressources/acteurs lié à une place de l’acteur
dans
l’organisation. Mais il ne semble pas pouvoir se positionner du
côté d’un système de ressources collectives qui fonde une
dynamique organisationnelle. En fait, l’outil n’est pas assez
souple et plastique, ce qui entre en contradiction avec une
activité mouvante, changeante, réinventée et renouvelée à parti
de fondamentaux acquis. Muhlmann (2001) nous rappelle
ainsi que : « (…) si le processus même de l’informatisation est
inévitable, sa forme ne peut être déterminée a priori : tout
dépend de la façon dont les acteurs vont se saisir de cette
nouvelle incertitude et l’intégrer dans leurs jeux souvent
conflictuels. Comme le disent H. Jamous et P. Grémion, « le
processus [d’informatisation]
est
beaucoup
moins
déterminant que déterminé. Et il peut être diversement
déterminé et réorienté par les conflits et les nouveaux groupes
que fait émerger sa propre dynamique (…) » (Jamous et
Grémion, 1978, p. 214)
Pour autant, les acteurs de l’organisation possèdent en
commun un sentiment sur l’obligation de changement et
d’évolution : évolution des compétences, réorientation de
l’activité, dynamique de gestion de projets tracée (coûts,
délais, facturation lisible et légitimée…) mais les nécessités ne
sont pas comprises de façon convergentes ou orientées dans le
même sens. Cette hétérogénéité des points de vue est
également favorisée par une explicitation divergente des
nécessités de changement. C’est à ce niveau une forme de
« conscientisation » (contextualisation) réflexive qui manque.
D’un côté, on pense qu’on s’adapte en fonction des clients, de
l’autre du fait du repositionnement de l’IFA dans le groupe,
soit du fait de contraintes externes ou internes, soit du fait
d’une adaptation à l’environnement, soit parce que la pression
financière et les objectifs de rentabilité s’accroissent, soit
comme une nécessité impérieuse, soit comme une forme de
fatalité. C’est le cadrage de l’organisation du travail (et au
travail) qui est alors en jeu. De fait, on peut discuter la pensée
managériale par le manque d’identification des démarches et
motivation des acteurs et leur capacité d’autonomie face au
changement et aux outils. On note alors un manque de
traduction de l’outil dans l’activité même qui s’affirme comme
un cadre d’activité mobile et contingent alors que le dispositif
informatique est figé en reléguant les acteurs à en fonction
d’exécutant, en situation de dépendance face aux outils
(manque flagrant d’accompagnement, d’enrôlement des
acteurs dans le processus d’élaboration, de prise en compte des
pratiques et des potentiels des acteurs/utilisateurs). C’est ce
que nous désignons comme un disjonction entre pensée
managériale, dispositif documentaire et informationnel et
pratiques en situation. De fait on pourrait dire que le projet de
l’institut a été évacué avec l’intégration des outils par peur
d’une démarche plus participative qui aurait favorisé une
61
62
dimension conflictuelle et qui a laissé de fait s’approfondir une
hétérogénéité des positions et des postures.
Il y a une forme de mésestimation des acteurs, une
méconnaissance de leurs pratiques qui conduit de fait à
fabriquer un outil et élaborer un dispositif de rationalisation
imposés en dehors des pratiques et du réel des l’activité plutôt
qu’un outil partagé sur des références communes. Mais
parallèlement, ce dispositif de rationalisation et le système
GED – workflow ne correspond pas à un projet qui serait porté
par l’IFA de manière collective et autonome : mis en place
pour faire face à des contraintes économiques, commerciales et
financières auxquelles sont confrontées de nombreuses
organisations. Il repose également sur la duplication de
démarches managériales et d’outils informatiques génériques,
sans véritable adaptation à une configuration et à une culture
spécifique.
relevant de « l’esprit du capitalisme » contemporain… Ce que
nous espérons avoir établi est que ce discours commun qui
tend sans cesse à relier les dispositifs et outils (TIC
essentiellement dans ce cas) et les formes et mutations
organisationnelles dont ces techniques seraient le fondement
nous paraissent ici assez largement invalidés. La structure
profonde de l’organisation peut être modifiée et bouleversée
par ces adaptations et régulations nouvelles, mais c’est sur le
plan social, symbolique et référentiel que la scène se joue. Ce
n’est pas tant une mutation collective, effective et globale qui
se réalise qu’un ensemble d’interactions, de tensions, de
changements ponctuels et nuancés qui laisse entière la
question du sens et du mouvement de l’organisation du travail
et au travail, traversée et réactivée par l’intégration des TIC
dans les cultures et les structures.
Bibliographie
Conclusion
Reposant sur un outil de gestion de l’information, la
normalisation et la création de fonctions spécifiques, le
dispositif
de
rationalisation
informationnelle
et
communicationnelle mis en place au sein de l’IFA trouve sa
source dans des évolutions socio-économiques externes, en
particulier la généralisation des logiques de flux, le
renforcement de l’efficacité, l’amélioration des services
produits. Parallèlement, il repose sur des conceptions de
l’organisation génériques, inscrites dans les modes
managériales dominantes – la gestion de projets, la qualité – et
sur un outil proposé par une société de services en
informatique. Il est également justifié par des discours
reprenant ces mêmes thématiques. Ces conceptions de
l’organisation et des contraintes organisationnelles et
économiques contemporaines sont intériorisées et partagées
par la plupart des acteurs de l’organisation, tant elles
participent de représentations sociales conventionnellement
admises sur le fonctionnement de l’économie actuelle. Ces
mêmes acteurs interprètent toutefois les éléments formels du
dispositif très librement en fonction de leur situation, de la
nécessité de légitimer leur rôle et de réaliser leurs objectifs. Ils
contournent, rejètent, complètent parfois les règles qui leur
sont imposées, dans des cadres d’action locaux. Ils n’ont de
toute manière pas le choix, dans la mesure où ils sont, comme
tout salarié, soumis à une forme « d’obligation de collaborer »
pour honorer les contrats et conserver leur emploi. C’est
pourquoi l’organisation ne sanctionne pas ce non respect, dans
la mesure où il conditionne la bonne réalisation des projets,
tout en cherchant à renforcer les dispositifs de gestion, de
manière symbolique et bien réelle. L’organisation « réelle » ne
correspond donc pas à l’organisation « voulue » par le
management, sans qu’elle en soit radicalement différente : elle
constitue
la
déclinaison
locale
d’une
« forme
organisationnelle » d’un plus grand niveau de généralité,
Boltanski L., Chiapello E., Le nouvel esprit du capitalisme,
Gallimard, 1999.
Bouillon J.L., « Autonomie professionnelle et rationalisations
cognitives : les paradoxes dissimulés des organisation postdisciplinaires ». Etudes de communication n°28, p.91-105
Bouillon J.L., « Du partage des savoirs à "l'économie cognitive" :
quelles rationalisations informationnelles et communicationnelles ? »,
in Metzger J.P. (dir.), Le partage des savoirs en contexte : logiques,
contraintes et crises, L’harmattan, coll. Communication et
Civilisation, p.63-8
Bouillon J.L., Omrane D., « TIC et relations de services dans une
économie globalisée : mutations relationnelles et rationalisations
productives ». Economie et Sociétés, Série Economie et Gestion des
Services n°7, 11-12/2005, p.2087-2116
Foucault M., Surveiller et punir, Paris, Gallimard, 1975.
Gadrey J., Zarifian P., L’émergence d’un modèle du service : enjeux
et réalités, Liaisons, Collection « Entreprises et carrières », Paris,
2002.
Goffman E., Frame Analysis, New York, Harper, 1974.
Grosrichard Alain, « Entretien avec Michel Foucault : le jeu de Michel
Foucault », Ornicar, n°10, 1977, p.62-93
Jamous H., Geémion P., l’ordinateur au pouvoir, Seuil, Paris, 1978.
Mayère A., « Les activités de communication et de production dans
les organisations. Apports et enjeux de la recherche en SIC », in
Questionner les pratiques d’information et de communication : agir
professionnel et agir social, actes du XVème congrès de la SFSIC,
Bordeaux, 10-12 mai 2006, p. 431-437
Muhlmann D., Des nouvelles technologies à l’image des vieilles
organisations, Éditions scientifiques et médicales Elsevier SAS, Paris,
2001.
Reynaud J.D., « La régulation dans les organisations : régulation de
contrôle et régulations autonomes », Revue Française de Sociologie,
vol. XXIX-1, p.5-18.
Terssac (de) G., (dir.), La théorie de la régulation sociale de JeanDaniel Reynaud : débats et prolongements, La Découverte, Collection
Recherches, Paris, 2003.
Terssac (de) G., Autonomie dans le travail, Seuil, Paris, 1992.
Veltz P., Le nouveau monde industriel, Gallimard, Paris, 2000.
Winkin Y., Anthropologie de la communication, Editions de Boeck &
Larcier S.A./Editions du Seuil, Paris, 2001.
62
63
Une approche des TIC dans l’organisation par la notion de confiance
Claudine BATAZZI
Université de Nice Sophia Antipolis
[email protected]
Henri ALEXIS
Université de Nice Sophia Antipolis
[email protected]
Mots clefs : confiance décidée et confiance assurée, culture d’entreprise, appropriation de l’outil, usage, DISTIC (Dispositif
socio-technique d’Information et de Communication), théorie de la structuration.
Le concept d’homo oeconomicus, cet agent doté d’une
rationalité pure et parfaite, bien qu’irrémédiablement contredit
dans les années 60 par les travaux d’Herbert Simon, perdure
curieusement dans pléthore d’organisations actuelles, évinçant
radicalement ou méprisant toutes les approches considérées
comme subjectives ou tout simplement délicates à évaluer à
l’aune du quantitatif. Il en est ainsi de la notion de confiance !
La confiance n’est pourtant pas écartée des préoccupations
de tous les économistes ou gestionnaires. Certains s’y
intéressent en effet, depuis peu il est vrai, et posent même
parfois la confiance comme le mécanisme central d’une
coordination des échanges dans des situations d’ignorance ou
d’incertitude [Quéré, 2001].
Il reste cependant à déplorer la rareté de ces travaux et leur
inscription davantage dans un paradigme normatif
qu’interprétatif. Aussi avons-nous tenté, à travers des apports
théoriques et empiriques sur le sujet, d’étudier le lien de
confiance qu’entretiennent les salariés envers leur organisation
et cela dans une mise en parallèle avec l’usage des TIC
(Technologies de l’Information et de la Communication) au
sein des organisations. Il s’agit là d’une « réflexion en miroir »
où les auteurs questionnent d’une part, l’influence
(prometteuse ou limitative) des TIC dans le mécanisme de
confiance des salariés et d’autre part, envisagent une
nécessaire confiance de ces derniers dans leur processus
d’appropriation des TIC.
Par ailleurs, si la prépondérance de la confiance dans le
mécanisme de réduction de la complexité sociale, ou encore
dans la transformation d’accords fragiles en de solides
partenariats, n’est plus à démontrer notamment depuis les
travaux de Luhman [2001], ses fondements et conditions
d’émergence n’en demeurent pas moins fort mystérieux.
Lors d’une étude sur le lien social, la notion de confiance
fut récemment abordée par d’Almeida ou plus précisément
l’absence de confiance des salariés « Le retour du doute, voire
de la méfiance des salariés génèrent une relation distancée à
l’entreprise » [D’Almeida ; Libaert, 1998]. Face à un tel
constat, les auteurs proposent d’analyser une éventuelle
influence des TIC dans le développement d’une confiance
organisationnelle.
En
explorant
des
situations
organisationnelles où la confiance apparaît primordiale dans la
relation qu’entretiennent les salariés avec leur organisation
comme face à une incomplétude de l’information, les auteurs
interrogent les TIC dans leur capacité à réduire l’incertitude et
la méfiance. Cette approche des situations organisationnelles
nous renvoie notamment au concept de culture d’entreprise.
Il est exact par ailleurs que la confiance n’est pas
exclusivement un acte ou un engagement individuel mais
résulte aussi d’une attitude que nous adoptons spontanément
dans tel ou tel contexte ou vis-à-vis de telle ou telle institution.
Ainsi, dans une relation de confiance avec une entreprise, nous
avons tendance spontanément à reconnaître que nous faisons
avant tout confiance dans ses employés, mais
immanquablement nous sommes ensuite bien obligés de
reconnaître que ces employés ne nous connaissent pas
personnellement et que, par conséquent les fondements de
notre confiance sont incertains [Lorenz, 2001]
Nous sommes alors bien forcés d’accorder à l’entreprise,
en sa qualité d’institution, notre confiance. C’est précisément
dans une vision holiste de l’organisation, que les mécanismes
institutionnels s’imposent. Les normes de qualité, labels et
chartes éthiques par exemple peuvent être considérés comme
des outils de médiation de la confiance recherchée par l’usager
dans sa relation avec l’organisation. Notre hypothèse est que
les TIC participent, en interne, à l’instauration d’un climat de
confiance tout en demeurant fortement dépendants, dans
l’appropriation qui en est faite, justement de la confiance
organisationnelle émergente. Par appropriation nous entendons
un usage personnalisé de l’outil numérique qui inclut aussi
bien le savoir-faire commun que toutes les astuces et
63
64
adaptations propres.
Dans
notre
volonté
d’apporter
un
éclairage
communicationnel du mécanisme de confiance au sein des
organisations par le biais des TIC, notre positionnement de
recherche s’inscrit pleinement dans les travaux des chercheurs
de l’école de Palo Alto. La confiance fait bien partie intégrante
d’un système de communication dynamique qui peut être
compris seulement dans une prise en considération du contexte
au sens large. Dans ce contexte, nous avons essayé de
rapprocher l’usage des TIC et le développement d’un
sentiment de confiance parmi le personnel.
I - LES TIC DANS LA CULTURE D’ENTREPRISE :
UN TERREAU FERTILE À LA CONFIANCE ?
Les marqueurs d'une culture d’entreprise ne peuvent être
exclusivement représentés par des variables liées à l'exercice
de l'autorité, à la gestion des conflits ou encore aux formes de
coopération entre les individus [Iribarne, 2000], ils s’étendent
aux autres mythes et représentations collectives avec toute la
part d’imaginaire associée. Tenter d’étudier la culture
d’entreprise dans une vision instrumentaliste s’avèrerait bien
vite impossible tant les critères d’appréciation se mêlent, se
confondent et se construisent dans des sempiternels processus
d’interaction. Aussi notre approche de la notion de confiance
dans les organisations via les TIC s’apparentera-t-elle
davantage à celle plus englobante de DISTIC. Les DISTIC,
rappelons-le, comprennent aussi bien les outils que les
échanges communicationnels entre les individus ou bien
encore leur représentation individuelle et collective.
Nous reprendrons ici l’hypothèse développée par d’aucuns
[Andonova, 2005] selon laquelle les TIC renforceraient
l’attachement des salariés à la culture d’entreprise, en veillant
toutefois à la complexité d’une telle assertion face à des
relations d’interdépendances nombreuses, fluctuantes et
imprévisibles entre les différentes parties de l’organisation. En
étudiant les TIC dans le processus de formation d’une culture
d’entreprise par exemple, nous nous trouvons inéluctablement
dans la mise en parallèle d’une dimension individuelle et
d’une dimension organisationnelle. Ainsi après avoir abordé la
confiance comme dimension à la fois révélatrice et structurante
d’une culture d’entreprise, nous étudierons le poids de cette
dernière dans l’appropriation des outils numériques.
La confiance comme reflet de la culture d’entreprise
Si nous admettons comme postulat que l’outil engendre un
réel changement dans la pratique seulement lorsque son usage
repose sur la confiance, nous rejoignons deux concepts
fondamentaux : la confiance envers le manager (travaux qui
ont fait l’objet d’une précédente recherche) [Batazzi, 2006] et
les valeurs qui règnent au sein de l’entreprise à travers le
concept de culture d’entreprise, que nous nous proposons
d’étudier ici.
Deux types de confiance furent mis en exergue par
Luhman [2001] : « trust » et « confidence » que nous pouvons
traduire respectivement par « confiance décidée » et
« confiance assurée ». La confiance décidée (trust) comporte
un risque tandis que la confiance assurée (confidence) fait
référence à une confiance spontanée.
Dans une confiance décidée, nous nous trouvons
inévitablement dans une situation de risque. Luhman dit que le
défaut de confiance assurée provoque un sentiment de
désaffection. Le manque de confiance assurée conduit à
s’abstenir d’agir et il devient compréhensible que le salarié ne
s’investisse que prudemment dans une situation d’incertitude.
Plus précisément un salarié hésitera à prendre des décisions si
sa connaissance de la situation et des risques (par exemple les
sanctions) demeure incomplète.
Si la confiance décidée est inévitable dans un
environnement inconnu et implique le risque, la confiance
assurée quant à elle relève avant tout, dans une situation
organisationnelle, des valeurs véhiculées par la culture
d’entreprise. Et Luhman [2001] d’ajouter que la confiance
assurée résulte toujours d’une histoire que les acteurs
construisent en fonction d’un ensemble d’éléments, du plus
fiable ou plus aléatoire à l’instar parfois de la tenue
vestimentaire de l’autre...
Les travaux de Giddens apparaissent complémentaires à
ceux de Luhman [Quéré, 2001]. L’auteur avance en effet la
prédominance du caractère répétitif de la confiance. Il existe
des situations où l’engagement doit être explicite mais dans
pléthore de cas, le mécanisme de confiance s’inscrit
principalement dans les routines organisationnelles. Par
routine, nous entendons aussi bien des comportements répétés
que des valeurs partagées autour de ces comportements. Les
TIC font partie intégrante de ce mécanisme en participant à
l’inscription des comportements et valeurs individuels dans les
schèmes organisationnels.
Il ne s’agit plus alors de s’interroger sur la technicité ou
l’usage des outils, mais davantage sur leurs acceptations par
les usagers. Ainsi en reprenant les deux niveaux de la culture
d’entreprise présentés par Schein [1999] à savoir un niveau
peu perceptible dont les individus ont peu ou prou conscience,
et un niveau plus visible à travers les comportements et
l’adoption de règles de conduite, nous nous apercevons en fait
du caractère indissociable de l’un et de l’autre. Les règles de
conduite et autres codes ne constituent que la partie immergée
de l’iceberg. La confiance repose a priori aussi bien sur les
valeurs intériorisées en chaque salarié que sur les signes
distinctifs de l’organisation tels que la légitimité du dirigeant,
la qualité et la fluidité des communications entre la direction et
le personnel, l’équité du système de rémunération…
Le risque réside alors en des démarches managériales qui
confondent, dans une vision volontariste de la gestion des
organisations, la stratégie et la culture d’entreprise. La culture
considérée dans une logique instrumentale apparaît comme un
levier. Orientée ou impulsée par le dirigeant, cette culture
risque fort de susciter auprès du personnel un sentiment de
méfiance. Celui-ci aura l’impression d’être manipulé.
La littérature américaine a particulièrement développé les
histoires de leaders qui ont transformé leur entreprise en créant
de toute part une nouvelle culture d'entreprise [Livian ;
Louard, 1993]. Et curieusement, les récits de dirigeants qui, au
contraire, ont bâti leur réussite à partir d’une culture déjà
existante, sont beaucoup moins nombreux. On retombe là dans
une apologie du changement par les managers où le
changement est forcément bénéfique à l'entreprise.
Si la culture d’une organisation constitue bien le reflet
d’une histoire partagée entre ses membres, elle en est
également le moteur. La confiance apparaît alors comme une
condition nécessaire au partage des outils et de leurs usages.
C’est bien dans la confiance que se développent des relations
interpersonnelles basées sur l’échange de connaissances et
c’est également la confiance dans les outils utilisés, qui permet
d’effectuer ces échanges.
La culture d’entreprise dans le cheminement de la
techné à l’épistémè
Si la technè consiste en l’habilité manuelle ou technique
de l’homme, l’épistémè renvoie à la connaissance théorique.
Nous suggérons que la culture d’entreprise contribue
fortement au passage d’une considération technique de l’outil
à sa mise en situation conceptuelle. Ainsi en concédant, dans
l’innovation par exemple, que la pratique précède la théorie
[Simier ; Levassort, Thierry, 2005], nous admettrons que la
64
65
culture joue un rôle prépondérant dans le repositionnement
théorique de la pratique.
Le déterminisme technologique n’existe pas dans une
réalité organisationnelle, les individus ajustent leurs outils par
erreur, par rupture ou encore par glissement. Ils détiennent
toujours la possibilité d’agir différemment [Giddens, 1993].
C’est l’usage et l’usage seul, qui constitue toujours d’après
Giddens, la valeur de la technologie.
Pour illustrer ces propos, reportons-nous au cas d’une
entreprise de télécommunication où la traditionnelle fiche de
vœux liée à la mobilité des postes fut remplacée par un site sur
l’Intranet, qui présentait l’intégralité des postes. Ce
changement technologique ne s’est toutefois pas accompagné
d’un changement des valeurs et les salariés demeuraient autant
suspicieux quant aux méthodes de sélection qui
accompagnaient les requêtes [Pelage, 2005]. Culture
d’entreprise, confiance et utilisation des TIC apparaissent
étroitement liés dans une approche systémique de
l’organisation. En nous appuyant par exemple sur la théorie
économique de Knight on s’aperçoit que l’incertitude est liée à
la confiance qui a son tour est liée à la légitimité que l’on
accorde au dirigeant [Laufer, 1996].
Ainsi l’usage d’un Intranet peut même être « boudé »
quand les valeurs s’avèrent être en décalage. Il en fut ainsi au
sein du Groupe GEM de Marseille partagée financièrement
entre la Lyonnaise des Eaux et la Générale des Eaux. Ce
groupe, spécialisé dans la gestion de l’eau et de
l’assainissement possède une forte culture avec une mission
qu’il définit lui-même comme quasi-humanitaire : le droit à
l’eau pour tous. Un sentiment de fierté fait l’unanimité auprès
du personnel. Ce groupe s’évertue, en vain, à mettre en place
depuis trois ans, un système de veille et d’intelligence
économique. La partie technique est opérationnelle mais
l’usage est décliné par les acteurs de l’entreprise.
L’informatisation est ressentie par le personnel comme « une
possibilité non explicitée de contrôle ». En fait la confiance
insuffisante des acteurs dans leur organisation, explique leur
réticence à utiliser l’outil [Boizard-Roux, 2005].
On peut ainsi sommairement conclure à deux formes
distinctes de relations entre l’organisation et la technologie,
selon si la culture est fortement axée sur l’innovation ou au
contraire si la méfiance prédomine. Plus précisément l’opinion
de la direction envers les TIC peut jouer favorablement … ou
défavorablement dans leur utilisation [Ely, 2005]. Ainsi un
discours institutionnel propice aux TIC est susceptible de
renforcer l’adhésion des salariés et de les inciter à s’approprier
les outils [Andonova, 2005].
De même les outils ne sont pas neutres dans les processus
de transformations culturelles. Mais ce n’est pas tant l’outil
que la modification de la nature des échanges et des relations
qui opère le changement. Cela nous explique, tout au moins en
partie, le décalage temporel entre les changements
technologiques et les pratiques sociales qui, elles, se révèlent
être plus lentes.
Enfin, les TIC dans l’organisation peuvent être
questionnées sous l’angle du construit social à partir de deux
approches :
l’approche par la généalogie des usages [Jouet, 2000]
où l’usage se construit dans le temps par un processus
de découverte, d’essais, d’erreurs et d’apprentissages.
- l’approche par l’appropriation qui fait référence aussi
bien aux dimensions collectives (notamment celle de
culture d’entreprise) qu’aux dimensions cognitives
individuelles à travers les savoirs et savoir-faire :
« L’appropriation est la façon dont un groupe utilise,
adapte et reproduit une structure » [Roux, 2003, p.
221]
II - APPROPRIATION DES TIC ET DÉVELOPPEMENT
DE LA CONFIANCE DANS UN PROCESSUS
RÉFLEXIF
La théorie de l’action située de Schuman [1987] apporte
des éléments de compréhension au phénomène de
développement de la confiance dans les organisations via les
TIC. Si, pour Schuman, la situation constitue bien la base de la
compréhension réciproque des individus engagés dans une
même action, il s’agit avant tout d’une étude des pratiques
locales. Les actions ne suivent pas une logique de déroulement
mais s’inscrivent au sein d’interactions locales avec les
éléments contextuels. Si l’identité située des acteurs fait
référence à la connaissance préalable détenue par les uns et les
autres, l’identité discursive relève quant à elle, de la
connaissance créée au cours du jeu de questions et de réponses
c’est-à-dire dans l’interaction.
Ces jeux d’interaction se retrouvent dans la théorie de la
structuration de Giddens [1987]. Celle-ci présente le contexte
tel un phénomène récurrent où les acteurs construisent un
contexte qui inéluctablement influence en retour leurs actions
et perceptions. Ainsi les schémas d’interprétation se créent
aussi bien par les savoirs que par les relations qu’entretiennent
les individus entre eux. Ces schémas constituent un mélange
complexe d’actions et de processus de mémorisation qui
interviennent à la fois à un niveau individuel et à un niveau
collectif.
Enfin l’appellation de TIC ne recouvre pas seulement des
outils sophistiqués de communication mais s’étend à la notion
plus complexe et englobante de DISTIC (Dispositif
sociotechnique d’information et de communication). La
réussite ou l’échec d’une application via les TIC résultent tant
de l’outil que de son usage et d’une manière plus large du
contexte dans lequel l’application s’inscrit. La confiance n’est
pas absente des composantes de ce contexte. Inconsciemment,
la confiance renvoie à des éléments concrets tels que les
valeurs énoncées, les actions, les promesses… Ainsi la
généralisation des TIC dans les entreprises, par les possibilités
d’information et de transparence engendrées, laisse présager
un renforcement a priori de la confiance des salariés. Des
études de situations d’entreprises que nous évoquerons,
relativisent toutefois fortement cette assertion.
La théorie de la structuration dans le processus de
confiance
La théorie de la structuration s’inscrit dans une approche
systémique et constructiviste où le contexte ne peut être étudié
d’une façon externe à l’individu. Les acteurs façonnent en fait
leur environnement qui simultanément pèse sur leurs actions.
Se met en place un processus de réflexivité par un retour sur
l’action et son contexte. « La structuration est conçue comme
un processus social qui inclut l’interaction réciproque entre
les acteurs et les caractéristiques structurelles des
organisations » [Mayère, 2003].
Une organisation peut être définie à l’instar d’un construit
humain et social par un jeu d’interaction et cela dans une
perspective historique. Ainsi la théorie de la structuration
analyse toute organisation à travers trois dimensions : la
structure, les interactions et les modalités de structuration. Et
la confiance peut apparaître comme le socle commun à ces
trois dimensions. La confiance avait ainsi été définie par
Kenneth Arrow comme un sous bassement nécessaire au bon
fonctionnement de l’économie, idée d’« institution invisible »
[Laufer, 1996]. De même il n’existe pas en pratique de
distinction entre la conception et l’appropriation, la conception
demeurant sous l’influence des usages présents ou antérieurs
[Roux, 2003, pp. 217-222].
65
66
Le processus d’appropriation fait référence à la fois à
l’empirisme et à la cognition. Ceci explique la diversité des
usages possibles pour des outils semblables. Une distinction
devient pourtant nécessaire entre une perception de la
technologie comme artefact et dans ce cas, on met l’accent sur
la dimension structurelle et la structure en projet, et une
perception de la technologie comme dimension sociale et
l’accent est alors posé, sur la structure en action [Roux, 2003,
p. 247].
L’apport de la théorie de la structuration [Giddens, 1987]
demeure fondateur dans l’étude des interactions. Cette théorie
souligne l’émergence des propriétés structurelles à travers les
actions quotidiennes des individus. Bien évidemment ces
dernières orientent les actions futures. Il s’agit d’un processus
réflexif dont le fondement consiste en un retour de la
conscience sur soi, tout élément demeurant en relation avec
lui-même.
Les chercheurs du courant de la théorie de la structuration
ont malheureusement tendance à isoler la technologie pour la
positionner en relation avec le système organisationnel. En
analysant les travaux de Orlikowski [2000] qui tentent de
compléter les apports de la théorie de la structuration par des
approches centrées sur le contexte comme la théorie de
l’action située, nous pouvons effectivement dépasser cette
limite en considérant la technologie, l’action humaine et la
situation, de façon interdépendante et conjointe. Il devient
alors impossible de les dissocier.
On note par ailleurs deux inscriptions de l’usage des TIC
dans une sphère professionnelle, l’une dans l’activité
quotidienne et l’autre dans le symbolisme, à travers la
perception de valeur et de sens. « Les Tic font partie de
l’univers professionnel pratique et symbolique » [Bourdin,
2005]. Nous rejoignons bien ici la dimension subjective de la
confiance au sein d’un environnement culturel qui ne l’est pas
moins.
Des TIC à la notion de DISTIC pour mieux comprendre
le processus de confiance
La culture d’entreprise ne peut être étudiée exclusivement
dans une approche systémique et seule une perspective
interactionniste est susceptible de rendre compte du processus
d’émergence. Les différents éléments qui interagissent en son
sein, les DISTIC (Dispositifs socio-techniques d’Information
et de Communication) apparaissent comme des composantes
majeures dans le processus de confiance. Les termes de
« dispositif ” et “de technique ” sont à envisager alors dans
leur acception la plus large, c’est-à-dire celle qui dépasse
l’idée d’un outil au sens restrictif de technologie, par exemple.
Nous admettons le postulat que la technologie et son usage
sont indissociables. Quant à la signification qui en résulte, elle
se construit par et dans les contextes matériel et symbolique.
L’interaction ne peut être comprise qu’à travers la prise en
compte d’un système culturel plus vaste où s’inscrit
parfaitement la notion de confiance assurée telle que nous
l’avons défini précédemment. Ainsi, nous embrassons
pleinement l’idée que le contexte prime sur le contenu et la
signification sur l’information.
Si une culture est bien le reflet des caractéristiques propres
à un groupe, sans toutefois en être la somme, on ne cherche
pas moins à expliquer le rapport entre l’individu et le collectif
à travers un véritable questionnement où la notion de
confiance se retrouve en toile de fond : Quel poids détient la
culture dans une action individuelle ? Quelles forces externes
stimulent la culture ? Quel mécanisme permet d’expliquer le
passage d’une confiance individuelle à une confiance
partagée ?
Aux jeux délibérés des acteurs de l’organisation et à leurs
comportements qui se veulent rationnels se mêle une grande
part de subjectivité et d’irrationnel. « D’une part la culture
suppose l’existence d’un tout cohérent ; d’autre part, elle
intervient dans l’action individuelle mais à travers des
références partagées, sans même que l’individu en soit
conscient » [Thévenet, 2003, p. 35]. Les échanges
interpersonnels relèvent en effet, en majeure partie, du
symbolique. Et si le symbole facilite l’expression de l’abstrait,
il demeure souvent incompréhensible pour le profane. Dans ce
cas, ce dernier se trouvera plus facilement en situation de
confiance décidée, ne détenant qu’une connaissance partielle
(la plus visible) des rouages de l’organisation.
De même les trois approches de la culture avancées par
Smircich [1983] à savoir cognitive, symbolique et
psychodynamique permettent d’éclairer le processus de
confiance. Chaque approche met en exergue un ensemble de
DISTIC qui éclaire et façonne à la fois les comportements des
acteurs de l’organisation.
Ainsi dans une approche dite cognitive, le chercheur
s’attelle à l’identification des connaissances, croyances et
systèmes de représentations communs aux individus. La
confiance relève en grande part du symbolique et s’appuie
essentiellement sur le poids de l’expérience.
On peut alors constater un jeu de projection réciproque
entre les DISTIC et la culture. En effet, ces dispositifs
façonnent les savoirs et les représentations des individus tout
en demeurant le fruit des nouvelles connaissances. La
récursivité du phénomène d’émergence culturelle se retrouve
aussi dans l’approche symbolique où l’acte détient moins
d’importance que la signification qu’il revêt. La confiance
prendra appui ici davantage sur des éléments subjectifs tels
que le charisme du manager, la force des valeurs présentes…
Le jeu des interactions se retrouve également dans
l’approche psychodynamique où le contexte culturel est étudié
sous l’angle de sa co-construction avec les logiques
d’évolution. Nous nous approchons davantage ici d’une
confiance décidée où les risques et doutes sont pesés par les
acteurs.
Les schémas d’interprétations des individus ne sont donc
pas constitués exclusivement par les reflets des caractéristiques
de l’environnement ou de la société, mais sont négociés en
permanence par les acteurs à travers les différents DISTIC.
Cette négociation s’inscrit dans un phénomène de construction
d’identité collective qui participe – ou pas….- à la formation
d’une confiance assurée.
En guise de conclusion….
Nous avons tenté dans cette communication d’interpeller
la notion de confiance dans le processus d’appropriation des
TIC au sein des organisations en prenant fortement en
considération le concept de culture d’entreprise. Nous avons
été confrontés au caractère paradoxal de la relation entre la
culture d’entreprise qui repose sur le passé et la tradition et, les
innovations technologiques axées plutôt sur le changement et
le modernisme [Chouteau ; Nguyen, 2005].
De ce paradoxe inévitable, nous envisageons une
dimension supplémentaire à l’étude des outils numériques,
celle de la relation entre la confiance et les TIC qui s’inscrirait
principalement dans une approche symbolique de
l’organisation. Nous délaissons alors radicalement une
approche rationnelle et instrumentalisée des relations
interpersonnelles pour envisager au sein même des
organisations, un processus de sacralisation des pratiques
professionnelles. Et au-delà de l’outil et de son usage,
l’appropriation de l’outil par l’homme relèverait avant tout de
la connotation sacrée qu’il accorde à celui-ci : « La
communauté ne peut se passer du sacré, car le rapport rituel
au sacré a pour fonction d’organiser l’intégration, la
différenciation et l’échange dans une communauté » [Wulf,
66
67
2005].
Bibliographie :
Almeida D’, Nicole ; Libaert, Thierry (1998), La communication
interne de l’entreprise, Paris, Dunod.
Andonova, Yanita (2005); « A propos des liens complexes entre
culture organisationnelle et dispositifs communicationnels : quelques
mises en perspective », in Actes du Colloque I3M, Culture des
organisations et DISTIC, Nice, 8-9 décembre.
Batazzi, Claudine (2006), « (Ré) introduire la notion de confiance
dans les organisations par les TIC », in Actes du colloque Intelligence
Informationnelle – culture et confiance pour une économie de la
connaissance, CEROM, IR2I, Paris, 29 et 30 juin.
Boizard-Roux, Odile (2005), « Culture d’entreprise, système
d’information et innovation : réflexions sur un cas pratique », in Actes
du Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9
décembre.
Bourdin, Sylvie, « Culture organisationnelle et TIC, Contribution à
une approche communicationnelle de la culture », in Actes du
Colloque I3M, Culture des organisations et DISTIC, Nice, 8-9
décembre.
Chevrier, Sylvie, (2003), Le management interculturel, Puf, Paris.
Chouteau, Marianne ; Nguyen, Céline, (2005), « Le récit d’une
formation technique ou la rencontre d’une culture organisationnelle,
technique et pédagogique », in Actes du Colloque I3M, Culture des
organisations et DISTIC, Nice, 8-9 décembre.
Ely, Frédéric (2005), « Culture et DISTIC : vers un système
performant pour la communication interne de l’organisation », in
Actes du Colloque I3M, Culture des organisations et DISTIC, Nice,
8-9 décembre.
Giddens, (1993), Les conséquences de la modernité, Ed. L’harmattan,
Paris.
Giddens (1987), La constitution de la société. Eléments de la théorie
de la structuration, PUF, Paris.
Joüet, J. (2000), « Retour critique sur la sociologie des usages »,
Réseaux, vol. 100.
Laufer, Romain (1996) ; « Quand diriger, c’est légitimer », in Revue
Française de Gestion, n° 111, Novembre décembre
Livian, Frédéric ; Louart, Pierre, (1993), « Le voyage de la culture et
de la motivation », in ouvrage collectif dirigé par Julienne Brabet,
Repenser la Gestion des Ressources Humaines, Ed Economica, Paris,
1993.
Lorenz, Edward (2001), Confiance inter organisationnelle,
intermédiaires et communautés de pratique, in Réseaux n°108, coll.
Hermès.
Luhmann, Niklas (2001), « Confiance et familiarité », in Réseaux, n°
108, coll. Hermès.
Mayère, Anne (2003), « Rationalisation de la communication et
organisations contemporaines : le cas de projets d’implantation de
PGI/ERP », in Communication et Organisation.
Orlikowski, W.J. (2000), « Using technology and constituting
structures : a practice lens for studying technology in organizations”,
in Organization science.
Pélage, Théodora (2005), « Changements socio-culturels et DISTIC
dans une entreprise de télécommunications », in Actes du Colloque
I3M, Culture des organisations et DISTIC, Nice, 8-9 décembre.
Quéré, Louis (2001) ; « Présentation à la confiance », in Réseaux, n°
108, coll. Hermès.
Quéré Louis (2001), « La structure cognitive et normative de la
confiance », in Réseaux, n° 108, coll. Hermès
Roux, Angélique (2003), Evolution des systèmes d’information et
transformation des organisations : des dynamiques renouvelées,
Thèse de doctorat soutenue à l’Université de Toulouse II, Le Mirail.
Schein E.H., (1999), The corporate culture survival guide, Josseybass.
Suchman, L. (1987), Plans and situated actions, Cambridge University
Press.
Simier, Patrick ; Levassort, Denys ; Thiery, Odile (2005), « Entre
culture de l’innovation et innovations culturelles », in les actes du
Colloque Culture des Organisations et DISTIC, Laboratoire I3M,
Décembre.
Smircich, L. (1983) « Concepts of culture and organizational analysis,
in Administrative Science Quarterly, n° 28.
Thévenet, Maurice, (2003) « La culture d’entreprise », Ed. PUF, Que
sais-je, Paris, 4ème édition.
Wulf, Christophe, (2005) « Rituels, performativité et dynamique des
pratiques sociales », in Rituels, Hermès, CNRS Editions, N° 43
67
68
Apprentissage des technologies
Quelles pratiques organisationnelles?
Corinne Baujard
Université de Bretagne Occidentale
[email protected]
Résumé : L’apprentissage des outils technologiques ne donne pas toujours naissance à de nouveaux modèles d’organisations,
même si des potentiels de collaboration remettent en cause les frontières de l’organisation. Dans un domaine où les approches
impressionnistes sont liées à des effets de modes ou à des déploiements finalisés, les outils technologiques permettent non
seulement de rechercher les effets collaboratifs sur les organisations, mais aussi d’appréhender les changements
organisationnels basés sur les technologies. Une série d’entretiens menée auprès de plusieurs entreprises internationales aboutit
à une typologie organisationnelle des entreprises.
Mots clés: apprentissage, outils technologiques, pratique organisationnelle, gestion des connaissances.
Introduction
Les récentes mutations de l’environnement
technologique modifient sensiblement les stratégies
d’apprentissage des entreprises. A l’évidence, les changements
technologiques de l’entreprise jouent de plus en plus un rôle
central dans la gestion des connaissances de l’organisation. Il
n’en demeure pas moins que les expériences font encore
l’objet de nombreuses critiques, de relevés d’insuffisances, de
retours d’expériences peu convaincants. Lorsque des salariés
quittent une entreprise, on constate qu’il est de plus en plus
difficile de conserver les compétences qu’ils détenaient. Les
entreprises prennent progressivement conscience que les outils
technologiques modifient les processus d’apprentissage de
l’organisation par leur relation au temps et à l’espace.
Certaines ont même misé sur le tout technologique n’hésitant
pas à investir dans l’achat de plateformes surdimensionnées.
Les entreprises sont tentées de se conformer aux pratiques des
organisations concurrentes en raison du caractère stratégique
attribué aux connaissances. Elles s’appuient souvent sur des
cabinets de conseils extérieurs qui ont tendance à proposer les
mêmes solutions technologiques.
Les terrains de recherches ont souvent été l’occasion
de relever les insuffisances de la formation en entreprise,
devenues un thème récurrent dans le quotidien des
organisations (Mintzberg, H., 2004). Si les études sur le outils
technologiques sont autant présentes dans la littérature
académique que dans les publications professionnelles, les avis
divergent selon la qualité de celui qui s’exprime : chercheur,
consultant, directeur de ressources humaines, responsable de
formation, syndicaliste, formateur. Tous reconnaissent tenir
compte des résultats décevants de la plupart des technologies
d’apprentissage surtout lorsque l’apprentissage se fonde sur un
recours intensif aux technologies de l’information et de la
communication, les entreprises ont souvent peu de politique
managériale en la matière.
Dans ce contexte, notre communication vise à mettre
l’accent à la fois sur les contraintes extérieures et les
préoccupations internes des entreprises dans la gestion de leurs
connaissances. La capacité à apprendre plus vite que les
concurrents constitue un atout compétitif au changement
organisationnel. Tout d’abord, la problématique posée (1)
s’inscrit dans le prolongement de plusieurs contributions
théoriques (2). La méthodologie inductive repose sur un
échantillon d’entretiens analysés selon la Grounded Theory
puis codés pour faire émerger les catégories explicatives (3).
Enfin, les résultats obtenus permettent d’élaborer une
typologie de comportements managériaux dans la gestion des
connaissances (4) avant d’être discutés en conclusion (5).
1 - Problématique.
Aujourd’hui, les technologies d’apprentissage ont
généralement des prétentions démesurées sans réellement
convaincre (Renault), répliquant parfois les échecs ERP
(L’Oréal). Les entreprises ont des approches divergentes des
outils technologiques. Ils peuvent distribuer le savoir par un
biais électronique (PSA), dans le monde entier (Valeo), libérer
des contraintes de temps et d’espace (Axa), (Air FranceKLM), relier les salariés (Société Générale) les fidéliser
(L’Oréal, Univers informatique), faire face aux départs à la
retraite (Lafarge, SNCF), former les clients (General Electric).
Des effets multiples sur l’organisation apparaissent ; qu’il
s’agisse de diffuser la culture de groupe (Siemens), selon des
principes pédagogiques (Accor, Thalès), d’orienter vers le
68
69
management de la connaissance (La Poste), de susciter des
changements dans les modes de management (CCF).
La question du mode opératoire des outils
technologiques est en général présentée de manière
fonctionnaliste, dans un sens pragmatique de résolution de
problèmes. Aussi faut-il se demander si l’apprentissage des
outils technologiques favorise-t-il de nouveaux modèles
organisationnels sociaux et humains, ou au contraire, s’ils
rendent compte d’une rupture entre les pratiques
organisationnelles et la stratégie de l’entreprise ? De quelles
connaissances ont besoin les entreprises pour réussir un
déploiement cohérent avec la stratégie d’entreprise ? Les outils
technologiques dépassent la difficulté du peu d’informations
sur les variables à prendre en considération au départ. Ils
apparaissent comme des indicateurs du management
organisationnel, des outils d’une démarche transversale. La
dimension sociocognitive de leur apprentissage n’est pas liée
simplement aux technologies présentes dans l’organisation.
Dès lors notre recherche vise à se doter d’un dispositif pour
repérer les types de connaissances organisationnelles,
culturelles et techniques indispensables au succès outils
technologiques selon les organisationnelles. La spécificité de
la méthodologie ancrée (grounded theory) paraît la plus
adaptée pour examiner l’apprentissage organisationnel à partir
des expériences locales rencontrées.
2 - Contributions théoriques.
Il s’agit de concilier les influences mutuelles entre
les
phénomènes
techniques
et
les
phénomènes
organisationnels. L’approche évolutionniste des travaux de
Nelson et Winter (1982) aide à comprendre l’impact outils
technologiques sur l’apprentissage organisationnel qui
concerne à la fois la structure et le fonctionnement des
organisations dans la mesure où, en général, il accompagne
l’implantation d’outils et d’applications informatiques.
L’approche systémique décrit l’organisation comme un
système complexe qui forme un tout et vit à la fois de façon
autonome indépendamment de son environnement, mais aussi
fortement en interaction avec lui (Simon, H. A. 1983).
Représentant à la fois l’action, l’acteur et la transformation
temporelle de l’acteur (Thompson, J. D. 1967), le changement
apporté à l’un des composants du système, entraîne des
répercussions sur l’apprentissage de l’entreprise (Senge, P. M.,
1990).
Cette problématique est liée à la nature des outils de
gestion qui fait le lien entre un certain nombre de variables de
l’organisation : la stratégie de l’entreprise, la structure
organisationnelle, le processus de formation. L’organisation se
construit par des outils qui lui permettent de fonctionner, qui
peuvent engager une transformation des rapports sociaux
(Berry, M., 1983) ; « toute formalisation de l’activité
organisée, tout schéma de raisonnement reliant de façon
formelle un certain nombre de variables issues de
l’organisation et destiné à instruire les divers actes de gestion »
(Moisdon, J. C., 1997). Chaque outil coexiste dans le cadre de
processus d’apprentissage (Hachuel, A., Le Masson, P., Weil,
B., 2002).
Les travaux classiques consacrés au management des
savoirs et aux entreprises apprenantes (Argyris, C., Schön, D.
A., 1978), (Senge, P. M., 1990) (Nonaka, I., Takeuchi, H.,
1995) révèlent que les capacités des membres de l’entreprise
s’ajoutent à ses ressources. Dans la formation, les capacités
sont définies par des aptitudes a priori obtenues par le travail.
Les compétences sont des aptitudes résultant d’une mise en
œuvre en milieu professionnel. Une distinction est faite entre
les savoirs tacites qui se transmettent par imitation et
expérience et les savoirs explicites qui relèvent de la
connaissance car ils peuvent être codifiés et transmis
directement. Il existe une dualité de savoirs qui contient les
processus émergents qui aboutit à plusieurs usages différents,
complémentaires, ou contradictoires. L’apprentissage outils
technologiques tend à mobiliser une diversité de théories et
compte tenu du choix méthodologique inductif inspiré de la
théorie enracinée. Les véritables enjeux stratégiques possèdent
plusieurs utilisateurs alternatifs, où l’incertitude relative à la
technologie ne produit pas les mêmes usages. Ce
particularisme n’est pas forcément synonyme de cohérence
organisationnelle.
3 - Méthodologie.
Les études empiriques sont primordiales pour faire
avancer la recherche et comprendre la relation entre la
stratégie de l’entreprise, le choix technologique et le
management des pratiques de formation. Aussi, la démarche
inductive préconisée par la théorie enracinée de B. Glaser et A.
Strauss (1967) a été progressivement étendue à
l’apprentissage. Elle donne un rôle prépondérant à la
découverte des situations de terrain pour aider à construire un
modèle capable d’intégrer l’ensemble de toutes les données
recueillies.
Il a été retenu un échantillon de vingt-huit
entreprises très diverses, autant par la taille que par les secteurs
d’activité. Au début, l’échantillon a été constitué selon « l’effet
boule de neige » qui a permis d’identifier les cas significatifs
grâce à des personnes qui connaissent d’autres personnes qui
connaissent des expériences de déploiement outils
technologiques (Lincoln, Y. S., Guba, E. G., 1985). Pour
prendre du recul, la sélection des premières entreprises a
permis de faire émerger les premières unités d’analyse. Les
entretiens ont permis les comparaisons sur le terrain, de
rechercher des catégories, puis de formuler des propositions
explicatives. Tout d’abord, nous avons choisi des cas
similaires répondant aux variables opératoires du cadre
théorique. Puis, de façon à répondre à la logique de
« dispersion », et d’augmenter la fiabilité des résultats, nous
avons élargi l’étude en trouvant les cas contrastés afin
d’accroître la validité des conclusions (Glaser, B. G., Strauss,
A. L., 1967). A cette fin, la méthode suivie a été soumise à un
contrôle de validité, autant externe qu’interne. La validité
externe généralise les résultats à partir des données recueillies
qui peuvent couvrir de multiples situations pour réduire au
maximum la subjectivité. Au surplus, il est indispensable de
confronter en permanence les données à la littérature pour
mieux comprendre la réalité. La validité interne fait référence à
la crédibilité des résultats de la recherche par rapport à
d’autres modes d’accès des connaissances. Les entretiens ne
doivent être que très peu modifiés lors de leur appréhension,
car la Grounded Theory insiste fortement sur le lien entre les
données recueillies. Ils ont néanmoins été parfois réinterprétés
pour une meilleure compréhension. Afin d’assurer pleinement
ces impératifs de validité, les entreprises ont été sélectionnées
en fonction des possibilités d’un large accès à leurs
informations, de la représentativité des diverses configurations
des groupes stratégiques (Thomas, H., Venkatraman, N.,
1988). Elles interviennent dans les secteurs de l’assurance, de
la banque, de la construction et de l’équipement automobile,
de l’énergie, des télécommunications, de la parfumerie, du
tourisme et des transports.
A ce stade, il s’agit de générer des propositions à
partir de discours éparpillés, de mettre en lumière des
articulations. L’analyse du terrain se compose de plusieurs
activités : la condensation des données brutes des notes de
terrain, leur présentation, l’élaboration des propositions.
L’analyse des entretiens des responsables de formation débute
par le codage en tenant compte des unités d’analyse,
indicateurs d’où émergent ensuite des propositions théoriques
qui peuvent être « générées initialement à partir des données,
ou si des théories (enracinées) préexistantes semblent
69
70
appropriées au domaine de recherche, alors celles-ci peuvent
être retravaillées et modifiées au fur et à mesure de leur
confrontation méticuleuse avec des données nouvelles »
(Strauss, A., Corbin, J., 1994). Le recueil s’achève lorsque les
responsables ont répondu à l’ensemble des situations
possibles. Pendant ce travail, il ne faut pas cesser de penser
qu’il va falloir ultérieurement lier des unités d’analyse à des
catégories plus générales. En effet, l’analyse de contenu
implique de diviser les discours en unité d’analyse pour créer
un travail de catégorisation afin de définir un univers de
référence du discours (Glaser, B. G., Strauss, A. L., 1967).
C’est ainsi que chaque catégorie trouve un écho dans le
discours et dans les questions de recherche. La liste de départ
des codes a été constituée à partir des premières unités
STRAT (stratégie).
Unités d’analyses illustratives
Codes-clés
Contexte interne
CI
Entreprise de transports : « Le outils CI-STRATE
technologiques est une décision stratégique
au sein de l’organisation, un outil de
reconnaissance du capital de chaque salarié,
afin d’être une solution pour prendre un
avantage sur le marché. Les outils
technologiques change la gestion des
connaissances ».
Entreprise de conseil : « Les situations de CI-CONF
travail auxquelles ont dorénavant à faire face
les salariés ont profondément évolué. Ils
n’ont plus à réaliser des tâches codifiées à
l’avance, mais à faire face à des demandes
imprescriptibles. Là où régnait une forme de
certitude se sont substitués les aléas
d’événements externes ou internes affectant
le mode de décision ».
Entreprise informatique :
CI-FRONT
« L’intranet permet de relier le salarié à ses
connaissances tout en développant ses
compétences. La mise à jour se réalise par
l’individu lui-même, il peut savoir à tout
moment où il en est, combler l’écart avec les
informations détenues par les clients ».
Entreprise industrielle : « Nous disposons de CI-CUL
deux campus technologiques pour nos
salariés en France et au Royaume-Uni. Ils ont
pour mission de développer des programmes
centrés sur la culture du groupe dans
plusieurs champs d’expertise et de
connaissances qui peuvent constituer un
facteur de résolution de conflits avec les
acteurs ».
Banque « Nous avons choisi le outils CI-CONT
technologiques pour répondre à la volonté
stratégique de l’entreprise, les métiers sont
impactés par les nouvelles technologies qui
demandent des salariés mieux formés ».
Entreprise de bâtiment : « L’ensemble de CI-MIM
l’application des outils technologiques a été
développé par un consultant spécialisé dans
l’ingénierie et la production multimédia ».
Syndicat : « La formation des outils échappe
encore souvent aux périmètres des
expérimentations. La question des temps
nécessaires
d’apprentissage
outils
technologiques est posée comme toujours en
matière d’introduction des TIC ».
………………………………………………
Tableau 1 - Exemples d’analyse des données.
CI-RAT
……
d’analyse. 120 codes ont été établis, puis rassemblés en
catégories pour finalement être regroupés dans un code book
faisant apparaît le tableau de codes en thèmes. Il a été structuré
avec les noms des répondants dans la première colonne du
tableau, et 80 codes-clés répartis verticalement au regard de
chacun d’eux. Il est possible ensuite de se reporter aux
citations des entretiens qui justifient le codage. Il est donc
facile de comparer les réponses de chaque entreprise sur tel ou
tel thème, de rapprocher des firmes entre elles d’isoler certains
paramètres. Chaque code doit être court et mnémonique, faire
référence à une « catégorie principale » et une « sous
catégorie ». Ainsi, « CI » se réfère à la catégorie (contexte
interne) et à la sous catégorie
Codage axial
Stratégie formation
La conception traditionnelle des outils dans l’entreprise
perçue comme des outils d’adaptation de l’organisation
du travail apparaît dépassée.
Les entreprises qui ont adopté les outils technologiques
insistent sur le caractère incertain de ses effets sur la
configuration de travail, sur l’expérience des acteurs.
Elles redoutent une grande diversité d’utilisations
L’investissement est important dans le secteur
informatique (sensible à la pression de la concurrence en
raison de la complémentarité dans l’utilisation des
outils, autant pour l’organisation que pour ses clients,
partenaires et fournisseurs.
Certains salariés refusent d’utiliser la nouvelle
technologie mise à leur disposition en raison de conflits
passés dont ils ont été des acteurs ou du déploiement
d’autres outils en l’absence de considération des réels
besoins.
La décision d’adoption des outils technologiques
correspond parfois à une démarche de rationalisation.
qui révèle le souci de développer des outils.
Le recours aux outils de gestion dépend des capacités
d’adaptation de l’organisation aux contraintes
technologiques. Les outils technologiques sont parfois
difficiles à déployer dans certains contextes
organisationnels.
Ce raisonnement fonctionnaliste fonde sur une vision
rationnelle de l’environnement. L’organisation apparaît
comme un ensemble de processus de gestion susceptible
de résoudre des conflits.
………………………………………
70
71
Dans le codage par induction selon la Grounded
Theory, on commence par l’analyse d’un petit nombre de
données, qui est ensuite élargi en fonction de la théorie qui
émerge. C’est pourquoi les entretiens ont été ajoutés au fur et à
mesure, dès que les expériences des entreprises sont devenues
plus évidentes. En effet, les catégories doivent être révisées en
fonction de réflexions continuelles ; il ne faut pas perdre de
vue que la méthode de comparaison des données débute par
leur définition qui s’effectue durant le codage. Les différentes
unités repérées sont regroupées en catégories en fonction de
leur ressemblance, puis les unités sont classées et les
catégories définies. Le codage est toujours délicat, car il doit
impérativement apparaître à la fois ouvert, axial et sélectif.
Le codage ouvert se rapproche le plus possible des
notes prises. Chaque entretien a généré la retranscription
d’environ 10 à 30 pages. L’ensemble des données permet
d’aboutir à une série d’unités d’analyses : contexte (interne ou
externe), variables explicatives, stratégie cohésive du outils
technologiques. Il sert également à fixer des catégories
réunissant les diverses incitations tirées du contexte à partir
des fonctionnalités techniques de l’outil. Dès lors, on peut
regrouper les unités d’analyse retranscrites. Les catégories sont
progressivement établies selon une liste de code. Au cas où
une catégorie regroupe plusieurs observations similaires, un
code est donné à chaque catégorie. Le codage axial transforme
les unités d’analyses en catégories. Il sert à repérer les
régularités entre le contexte de l’environnement et les
comportements d’adoption pour faire émerger les interactions
explicatives, comme la standardisation des échanges et les
effets de réseaux à l’origine de la stratégie d’adoption. Le
codage sélectif analyse les relations entre les catégories et
permet la présentation du modèle théorique. Il met en évidence
les éléments contextuels: l’exigence technologique,
l’environnement économique, la représentation des acteurs et
les fonctionnalités de l’outil. Les relations entre les catégories
et les éléments contextuels démontrent comment
l’apprentissage des outils technologiques est liée à une vision
partagée par les principaux acteurs de l’entreprise dont le
succès dépend du développement d’équilibres entre le
dispositif de formation et son organisation aboutissant à une
typologie de pratiques organisationnelles.
4 – Typologie organisationnelle.
Une typologie fondée sur la distinction de
comportements ambitieux, collaboratifs et négociés des
entreprises en matière d’outils technologiques révèle le mode
de fonctionnement de la connaissance dans les entreprises.
Tout d’abord, les comportements ambitieux relève
d’une démarche objective, puisque la gestion des
connaissances dépend largement du contexte externe et
interne. Les entreprises subissent des contraintes liées à leur
dispersion géographique qui nécessitent une maîtrise des
savoir-faire et des compétences clés par rapport à leurs
concurrents. Elles espèrent généralement réaliser des
économies substantielles de frais de déplacement. Les
compétences s’appuient sur la capitalisation des retours
d’expérience à partir des signaux de l’environnement comme
source d’enseignement, conduisant vers une nouvelle
organisation des compétences entre la formation transversale
et les modes décentralisées d’apprentissage. C’est sur ce point
que l’organisation trouve sa réponse dans les pratiques qui
placent les outils technologiques au centre de l’activité
professionnelle. La stratégie de l’entreprise est suffisamment
évolutive pour envisager le changement sur le développement
des technologies ; la variable organisationnelle agit fortement
sur le système d’information, quel que soit le secteur
d’activité. L’investissement dans une plateforme outils
technologiques est fréquent dans les secteurs très exposés à la
concurrence, tel le secteur industriel. Il n’en demeure pas
moins, que les entreprises sont en général très informatisées et
les mieux équipées en systèmes techniques. La diffusion des
connaissances aisément accessible sur le lieu de travail devient
sur le plan technique et organisationnel un support de savoir et
d’expertise pour les salariés, une aide à la mise en réseau des
pratiques managériales.
Puis, les comportements collaboratifs relève d’une
approche progressive et prudente dans l’apprentissage outils
technologiques. Les entreprises ont conscience de l’intérêt du
rôle des outils mais tentent d’élaborer des relations sociales
conciliant l’expertise organisationnelle et le changement dans
les pratiques de travail. Elles ont très vite pris conscience des
connaissances informelles dans le travail et de la nécessité de
les retenir en raison du départ de nombreux cadres des
entreprises dans les prochaines années. Le partage
d’expérience s’exprime à la fois dans l’utilisation des outils
technologiques dans la pratique collaborative de
l’apprentissage. Les procédures de travail ne peuvent se
réaliser sans une refonte des processus d’apprentissage dans la
mesure où des ressources librement accessibles sont mises à
disposition sur l’intranet de l’entreprise. La gestion des
connaissances intégrée à l’activité professionnelle structure le
nouvel usage de la formation. Le facteur humain s’avère
déterminant. L’entreprise a conscience que la compétence est
un enjeu pour sa stratégie, tout en mobilisant directement un
ensemble de connaissances immédiatement applicables. Ces
entreprises sont moins informatisées et construisent ellesmêmes leurs apprentissages à partir d’une négociation avec les
acteurs. Elles tiennent compte des représentations collectives
et bénéficient de larges conseils de l’environnement éducatif.
Enfin, les comportements négociés ne mesurent pas
toujours les conséquences pratiques du déploiement outils
technologiques et sont confrontées à la résistance de
personnes, d’agencement de l’espace et du temps qui bloque
tout commencement de projets. Les entreprises insistent sur la
négociation parce que l’approche instrumentale des outils
technologiques dépend de choix entre les démarches externes
et les pratiques internes. Elles ont cependant un niveau élevé
d’efficacité quant au système d’information organisationnel,
mais un niveau faible en terme de gestion des connaissances.
Face à un environnement technologique fortement contraint,
elles ne disposent que de peu de latitude d’action. La
formation devient un simple outil de gestion lié aux exigences
de l’environnement. De surcroît, l’adoption des outils
technologiques reste sous l’emprise directe de logiques
financières considérées comme vitales pour la compétitivité de
l’entreprise.
Au final, quel que soit la typologie retenue,
l’apprentissage des outils technologiques révèle la variabilité
de la gestion des connaissances qui peut aller de la
rationalisation du changement organisationnel jusqu’au
développement de l’autonomie managériale. Il faut donc
constater que les approches en terme de bénéfices
économiques et de stratégies de rationalité parviennent
difficilement à mesurer la contribution des outils
technologiques à l’organisation car elles perçoivent trop
souvent les outils technologiques de façon très différente aussi
bien du point de vue de la gestion des connaissances que des
conséquences organisationnelles.
5 - Discussion des résultats.
Le management des outils technologiques dépend de
la cohérence entre l’environnement et les pratiques
managériales et techniques existantes dans l’entreprise. Les
connaissances diffusées par les technologies de l’information
provenant
de
l’environnement
et
des
relations
interpersonnelles et jouent un rôle clé dans le processus
71
72
d’adoption. Lorsque l’adoption est contraignante, la décision
apparaît agencée dans l’espace (la pression technologique du
système technique, la perception de l’environnement plus ou
moins pressante, l’idée que l’on se fait des l’utilisation des
outils technologiques). Mais, lorsque le choix est libre, la
décision est plutôt de nature temporelle (anticipation de non
usage des outils technologiques, mimétisme, mode ou
démarche d’un projet d’utilisation dans un contexte
managérial). L’environnement technologique et la pression des
concurrents jouent un effet d’accélérateur dans la gestion des
connaissances.
L’investissement technologique est surtout présent
dans le secteur industriel qui semble relativement sensible à la
pression de la concurrence. L’utilisation a des conséquences
sur la gestion de connaissances qui suscite des stratégies
variées selon les entreprises selon des utopies plus ou moins
contradictoires. Le management des outils technologiques
permet de découvrir progressivement la gestion des
connaissances de l’entreprise lors des changements
organisationnels.
Les comportements collaboratifs favorisent la
circulation des connaissances dans le temps et dans l’espace.
Les outils technologiques ont pour fonction d’informer et de
former les salariés. Ils apparaissent comme des outils de
gestion des connaissances collectives axés sur des méthodes
d’élaboration participative (Lorino, P., 2001). Les valeurs
identitaires d’appropriation sont liées aux valeurs de
l’entreprise. Les outils technologiques prennent en compte de
manière gestionnaire l’espace temporel. Dès lors, la nature de
l’outil influence effectivement les comportements et
l’apprentissage (Argyris, C., Schön, D. A., 1978). Les
connaissances sont portées par le changement organisationnel
structuré par des finalités communes résultant d’un processus
de création d’apprentissage collectif. Dans tous les cas, un
déploiement prudent et progressif des outils technologiques
doit être entrepris à partir des histoires réussies. La structure
sociale devient très importante. Même si on assiste
aujourd’hui, après les premières euphories, à une attitude
réservée des organisations envers les outils technologiques, il
faut absolument élaborer un cadre fédérateur et collaboratif.
Les
outils
technologiques
deviennent
progressivement des pratiques organisationnelles, des lieux de
capitalisation aux besoins de changement des organisations.
Les outils technologiques résident autant dans la satisfaction
de nouveaux enjeux stratégiques que dans la gestion du
patrimoine intangible. En effet, certains choix organisationnels
motivés par des besoins opérationnels deviendront par la suite
de nouveaux enjeux stratégiques. Les modes d’apprentissage
des outils technologiques réorganisent incontestablement les
schémas de pensée qui nécessitent une redéfinition de
l’adaptation des compétences. Qu’il s’agisse de réorganiser,
pallier les départs en retraite ou améliorer sa compétitivité au
sein de processus transversaux pour partager les savoirs,
l’impact des outils technologiques sur la gestion des
connaissances remet en cause les apparences d’efficacité
économique et de réduction des coûts. Mais constater les
difficultés de cohérence organisationnelle ne doit pas éclipser
les pratiques organisationnelles plus nécessaires que jamais à
la gestion des entreprises.
Références
Argyris, C., Schön, D. A., (1978), Organizational Learning: a Theory of Action
Perspective, Addison-Wesley, Reading, MA.
Baujard, C., (2004), Motifs d’adoption, processus d’intégration et modes
d’apprentissage outils technologiques, proposition d’un modèle stratégique, thèse
de Doctorat, Paris-Dauphine, 30 novembre.
Berry, M., (1983), Une technologie invisible ? L’impact des instruments de
gestion sur l’évaluation des systèmes
humains,
CRG,
Ecole
Polytechnique.
Chanlat, J. F., (sous la dir.), (2000), L’individu dans l’organisation, les
dimensions oubliées, Laval, Eska, (pp. 330).
Conseil de l’Union Européenne (2001), Résolution du conseil sur le outils
technologiques, Journal Officiel des Communautés européennes, 20, 7, 204-205.
Cyert, R. M., March, J. G., (1963), A Behavioural Theory of the Firm,
Englewood Cliffs, Prentice-Hall
DeSanctis, G., Poole, M. S., (1994), « Capturing the Complexity in Advanced
Technology Use: Adaptive
Structuration
Theory »,
Organization
Science, 5, 2, 121-147.
Glaser B. G., Strauss A. L., (1967), The Discovery of Grounded Theory:
Strategies of Qualitative Research, New
York, Aldine de Gruyter.
Hachuel, A., Le Masson, P., Weil, B., (2002), De la gestion des connaissances
aux organisations orientées
conception , F., Rowe, Faire de la
recherche en système d’information, (coord.), (pp. 155-170), Paris,
Vuibert.
Huberman, A. M., Miles, M. B., (2003), Analyse des données qualitatives, 2e éd.,
Bruxelles, De Boeck.
Kalika, M., (2002), Les défis du management, Paris, Editions Liaisons.
Kalika, M., Kéfi, H., (2004), Evaluation des systèmes d’information : une
perspective organisationnelle, Economica.
Lincoln Y. S., Guba, E. G., (1985), Naturalistic Inquiry, Beverly Hills, CA, Sage.
Lorino, P., (2001), Méthodes et pratiques de la performance, Paris, Editions
d’Organisations
Moisdon, J. C., (1997) (dir.), Du mode d’existence des outils de gestion, Les
instruments de gestion à l’épreuve de l’organisation, Paris, Seli Arslan.
Mintzberg, H., (2004), « Former des managers et non des diplômés de MBA », Le
Management, voyage au centre des organisations, (pp. 151-173), Paris, Editions
d’Organisation.
Nelson, R. R., Winter, S. G., (1982), An Evolutionary Theory of Economic
Change, London, The Belknap Press of Harvard University Press.
Nonaka, I., Takeuchi, H., (1995), The Knowledge Creating Company, How
Japanese Companies create the dynamics of innovation, New York, Oxford
University Press.
Orlikowski, W. J., (1992), The duality of technology: rethinking the concept of
technology in organizations, Organization Science, 3, 3, 398-427.
Reix, R., (2004), Systèmes d’information et management des organisations, 5e
éd., Paris, Vuibert.
Senge, P. M., (1990), The fifth Discipline, the Art and Practice of the Learning
Organization, New York Doubleday Concurrency.
Simon, H. A., (1983), Administration et processus de décision, Paris, Economica,
(trad. 1947).
Strauss, A., Corbin, J., (1994), Grounded Theory Methodology: An Overview, N.
K. Dezin, Y. S. Lincoln (Eds),
Handbook of Qualitative Research, (pp.
273-285), Thousand Oaks, CA, Sage.
Thomas, H., Venkatraman, N., (1988), « Research on Strategic Groups: Progress
and Prognosis », Journal of Management Studies, 25, 6, 537-555.
Thompson, J. D., (1967), Organizations in Action, New York, McGraw-Hill.
Vaujany de, F. X., (2003), Les figures de la gestion du changement
sociotechnique, Sociologie du travail, 45, 4, 509-513.
Wacheux, F., (1996), Méthodes qualitatives et recherche en Gestion, Paris,
Economica.
Wacheux, F., (2000), « Le paradigme de la structuration sur l’analyse des
situations de travail : effets en retour dans les processus de routinisation »,
Structuration et management des organisations, D. Autissier, F. Wacheux (dir.),
(pp. 297- 301), Paris, L’Harmattan, Logiques de Gestion.
72
73
Technologies de l’information et de la communication et évolution des pratiques
professionnelles : le cas des réseaux de santé en France
Christian Bourret
Université de Marne-la-Vallée
[email protected]
mots-clés : TIC, pratiques professionnelles, usages, réseaux, santé.
Résumé : Les réseaux de santé sont nés d’un besoin d’interface entre les mondes séparés de la médecine de ville et de l’hôpital.
Ils se sont développés à partir du milieu des années 1980 comme nouvelle forme organisationnelle innovante centrée sur une
approche plus globale de la santé du patient. Ils ont été consacrés en mars 2002. Leur évolution, reposant principalement sur le
partage de l’information et la coordination des soins, rencontre désormais la mise en place du dossier médical personnel (DMP)
et les autres réformes du système de santé français. Les réseaux de santé sont à un tournant de leur histoire. Leur pérennité et
leur légitimité dépendent de leur capacité à construire progressivement de nouvelles pratiques professionnelles reconnues en
donnant un rôle nouveau au patient.
Introduction
Dans un système de santé français caractérisé par ses
cloisonnements (notamment entre la médecine de ville et
l’hôpital), les réseaux de santé se sont progressivement
affirmés comme une innovation organisationnelle. Ils essaient
de concilier des logiques d’acteurs différentes en construisant
de nouvelles pratiques professionnelles coopératives
davantage centrées sur le patient.
Nos travaux ont été favorisés par les coopérations nées
autour d’un DESS devenu master (Ingénierie des réseaux de
santé) de l’université de Marne-la-Vallée. Se situant à
l’articulation des enjeux de l’information et de la
communication, ils s’appuient sur des méthodologies
constructivistes,
notamment
de
« contextualisation
situationnelle dynamique » définies par A. Mucchielli (1).
Cette communication repose sur l’analyse de documents, de
sites Internet, et sur des entretiens avec des responsables et
autres acteurs de réseaux de santé, d’organismes de protection
sociale et de collectivités territoriales. Elle analyse
principalement comment la rencontre des réseaux de santé et
de la mise en place du dossier médical personnel va modifier
les pratiques professionnelles.
L’affirmation des réseaux de santé : innovation sociale
plus que technique
Les réseaux de santé constituent de nouvelles formes
organisationnelles qui ont émergé dans les années 1980 pour
répondre à des problèmes de santé mal pris en charge,
notamment le SIDA, la gérontologie, le cancer, le diabète ou
l’hospitalisation à domicile (HAD) en luttant contre les
cloisonnements du système de santé français. Ils ont
correspondu à deux approches différentes : celle plus globale
de médecins de terrain (réseaux de santé et précarité) et celle
d’organisations de protection
sociale ou d’assurance
davantage limitée aux soins. Leur rôle a été consacré par la loi
du 4 mars 2002 relative aux Droits des malades et à la qualité
73
74
du système de santé qui en donne une définition de synthèse
valorisant leur rôle de coordination. A ce jour, existent plus de
500 réseaux sont reconnus, soignant 150 000 à 200 000
patients (2). Tout projet de réseau de santé s’appuie sur un
système d’information (mais pas forcément informatisé)
permettant de coordonner les interventions entre
professionnels de santé.
Les réseaux de santé correspondent à de nouveaux
rapports aux territoires (dématérialisation) qui s’accentueront
avec les schémas régionaux d’organisation sanitaire (SROS)
de
la
3e
génération.
Ils
créent
une
certaine « extraterritorialité » : le réseau qui « relie autour
d’une personne malade l’ensemble des ressources
nécessaires », n’est « ni en ville, ni à l’hôpital, ni médical, ni
social, mais est tout cela à la fois » (3). Les réseaux de santé
peuvent aussi être appréhendés à travers une problématique de
franchissement de « frontières » : notions d’interface, de
médiateurs, de « passeurs ».
Ils peuvent être également analysés à travers le modèle de
la compétence étudié par P. Zarifian où la communication
nourrit en permanence l’activité (4) pour une nouvelle
définition de la productivité et l’émergence de nouveaux
métiers d’information-communication (5). Ils relèvent du
« procès d’informationnalisation » analysé par B. Miège :
élargissement du champ de l’information dans la sphère
professionnelle, articulation des trois dimensions macro, méso
et micro et médiatisation par la technique des structures de
médiation sociale (6). Ils correspondent aussi à l’articulation
des logiques de besoins et des usages au sein du paradigme du
travail collectif étudié par Y.-F. Le Coadic (7). Le
développement des réseaux de santé correspond à une logique
de besoins à trois niveaux : communiquer (créer du lien),
coordonner les activités et permettre de les évaluer.
Pour F.-X. Schweyer (8), les réseaux de santé naissent
d’une volonté de « travailler différemment ». Selon lui, ce ne
sont pas les procédures ou les outils qui structurent les réseaux
mais une conception du soin privilégiant une approche
partagée. « Le projet réseau officialise, rend visible une
communauté professionnelle qui existe déjà. Celle-ci n’est pas
une condition favorable, elle « est » le réseau ». L’obsession
informatique à l’époque des systèmes informatiques
propriétaires a causé des échecs, certains réseaux ne se sauvant
qu’en retournant à un carnet de liaison papier.
B. Elghozi a mis en évidence les trois étapes du
développement des réseaux de santé (9) : tout d’abord à la
charnière des années 1980 – 1990, la création des réseaux de
santé notamment par des médecins militants, à partir du milieu
des années 1990, la rencontre avec les institutions, et,
maintenant, les réseaux doivent construire leur partenariat avec
les usagers. Cette dernière étape est selon lui « indispensable
pour éviter le risque majeur … l’enfermement dans un circuit
fermé de professionnels ». Elle est accélérée par l’usage des
TIC, correspondant à la rencontre des réseaux de santé et du
DMP (dossier médical personnel).
La rencontre des réseaux de santé et du DMP
La loi d’août 2004 relative à l’assurance maladie a modifié
le contexte au sein duquel évoluent les réseaux de santé. Elle
mise sur les TIC en faisant du DMP (dossier médical
personnel) informatisé une priorité pour améliorer la qualité
des soins, avec le choix d’un médecin traitant, garant du
contrôle de la trajectoire de soins du patient. Le DMP
comprendra 4 volets différents : identification, données
générales (historique, antécédents), soins (résultats d’examens,
traitements, séjours hospitaliers …), prévention. Les réseaux
de santé et le DMP correspondent donc au même enjeu central
de partage de l’information, bien analysé par le rapport Fieschi
(10).
Selon N. Paquel, le DMP est un « objet politicomédiatique autant que médico-technique ». Sa mise en place
correspond à un tournant majeur : « le partage de l’information
médicale et l’accès du patient sont sur la place publique : la
boîte de Pandore ne sera pas refermée » (11). Il constitue la
première opération nationale de grande ampleur dans laquelle
l’hébergement de données de santé occupe une place centrale.
Le nombre d’informations à traiter augmente : la seule
médecine de ville produit plus d’un milliard de feuilles de
soins par an sans compter les données nées de la généralisation
de l’informatisation de la production des soins (12). Il requiert
l’intervention d’un hébergeur de données de santé personnelle
(décret de janvier 2006).
Beaucoup d’interrogations demeurent. Aussi ambitieux,
voire plus que des projets comparables à l’étranger (RoyaumeUni ou Etats-Unis notamment), le DMP français devrait être
opérationnel dans des délais beaucoup plus courts (2007), ce
qui suscite de vives craintes : calendrier irréaliste, faiblesse du
financement … (13), certains n’hésitant pas à parler de
« dossier mal parti ».
De nombreux travaux et séminaires (Haute Autorité de
Santé, GIP-DMP, Unions Régionales de Médecins Libéraux
(URML), associations de professionnels …) ont mis en
évidence les conditions de succès du DMP : avant tout
simplicité d’utilisation et confiance. Il faut éviter les doubles
saisies de données et donc assurer leur extraction à partir des
dossiers des médecins qui doivent pouvoir continuer à
travailler avec leurs logiciels métiers (interopérabilité). La
confiance suppose d’assurer confidentialité (secret médical qui
devient partagé), sécurité et fiabilité de la protection des
données, mais aussi que les médecins et les patients soient
convaincus, après l’échec du carnet de santé en 1996, que le
DMP n’est pas un gadget de plus, une « usine à gaz », voire,
sous couvert de rationalisation, un outil de contrôle des
prescriptions et de rationnement des soins.
Le rôle central du patient constitue l’originalité du DMP
français. Alors que le projet de loi parlait de « dossier médical
partagé », le législateur d’août 2004 a voulu un « dossier
médical personnel ». Comme pour la décision de confier la
gestion et l’archivage des données à des hébergeurs privés
(l’assurance maladie aurait pu jouer un rôle pivot), certains y
voient l’influence du lobby des médecins pour limiter le
contrôle de leur activité. Les conditions de l’accès sont
toujours discutées : le patient accédera-t-il directement à son
dossier et par téléphone ou ne pourra-t-il y accéder qu’en
présence d’un médecin ? Le dossier devra-t-il être exhaustif ou
le patient pourra-t-il détruire certaines données ? La question
du financement (constitution du dossier initial, hébergement)
n’est toujours pas tranchée. Qui va payer ? Le patient ?
L’assurance maladie ?
Le DMP ne pourra pas résoudre seul le problème de la
coordination des soins (14). Il devra s’appuyer dès sa phase
d’expérimentation commençant en juin 2006 (6 consortiums
d’industriels répartis sur toute la France pour traiter 30 000
dossiers) sur les réseaux de santé et notamment sur les
expériences régionales comme la plateforme Franche-Comté
Santé (15). Le DMP rend incontournable la rencontre
généralisée des réseaux de santé et des TIC. Les réseaux de
santé correspondent de plus en plus à une double médiation
sociale et technique dont les rapports dans la dynamique
d’innovation ont été analysés par J. Jouet (16).
L’enjeu majeur : la construction de nouvelles pratiques
centrées sur le patient
Les rythmes de l’innovation sociale et de l’innovation
technique sont très différents : les comportements évoluent
plus lentement que les technologies (17). Les réseaux de santé
se sont construits progressivement. Les premiers sont apparus
74
75
au milieu des années 1980. Les ordonnances de 1996 ont
permis quelques expérimentations. La véritable reconnaissance
des réseaux ne date finalement que de la loi de 2002. A Alès
(Gard), la ville a mis en place une politique de santé publique
en 1990. Les premiers réseaux de santé (soins palliatifs, santé
précarité, périnatalité, alcool) sont apparus entre 1993 et 1997.
L’association Reseda correspondant à une logique de
mutualisation et de territorialisation de la santé a été créée en
1998. D’autres réseaux l’ont rejoint depuis : diabète (1999) et
santé respiratoire (2001).
Le rythme du temps juridique est plus long que celui du
temps technique comme le montre l’exemple du DMP qui
relève aussi d’une construction progressive : envisagé dès la
loi de mars 2002, décision de création en août 2004 (avec
transposition de la directive européenne sur les données à
caractère personnel remontant à octobre 1995), décret sur
l’hébergement des données à caractère personnel en janvier
2006 (près de 4 ans après la loi de mars 2002 …),
expérimentations à partir de juin 2006, la suite devenant
beaucoup plus incertaine …
La construction des réseaux de santé repose largement sur
la négociation. Elle n’est pas seulement une source de
régulation, elle est de manière constitutive le cœur même du
service offert au patient et à sa famille (18). L’évaluation,
considérée comme une démarche de projet qualité aide à faire
converger les représentations et à construire du sens partagé
(19). La construction des réseaux de santé repose sur la
complémentarité de ses acteurs avec l’affirmation du rôle des
patients : notion d’ « empouvoirment » (20). Ce « nouveau »
patient s’exprime dans des pratiques d’intermédiation
(« habitants-relais » du réseau de santé de la cité des FrancsMoisins à Saint-Denis devenu Ville-Hôpital 93 Ouest) ou de
vie collective (atelier théâtre toujours à Saint-Denis)
novatrices, créant du lien pour aider à retrouver estime de soi
et identité. Les associations de patients jouent aussi un rôle
majeur dans les maladies rares, la lutte contre les infections
nosocomiales ou les erreurs médicales. Organisation
apprenante en construction progressive, le réseau de santé
forme tous ses acteurs mais construit aussi ses compétences à
partir de leurs connaissances individuelles y compris celles des
patients.
Le DMP doit permettre de mieux travailler, dans une
logique de « customization » : standardiser la routine
(protocoles et référentiels) pour dégager du temps pour
améliorer la relation individuelle avec les patients. Les séances
du salon MEDEC 2006 ont mis en évidence combien partager
des données avec des personnes qu’on ne connaît pas, suppose
un changement profond de mentalités, défi à relever aussi
important que ceux de la sécurité des données et de
l’interopérabilité technique. Le fonctionnement progressif en
réseaux de santé de proximité prend alors tout son sens. C’est
aussi la question de la responsabilité partagée, alors que
juridiquement elle demeure toujours individuelle. C’est
accepter le regard des autres, d’être jugé sur ses pratiques.
Le véritable enjeu est celui de l’appropriation des outils
pour développer de nouvelles pratiques coopératives. C’est
tout l’enjeu de l’accompagnement du changement, car, en
l’absence d’une large acceptation, le DMP risque de finir
comme le carnet de santé de 1996 avec un coût bien supérieur
pour le patient-contribuable (21). Il faut tenir compte de la
résistance des médecins libéraux à l’informatique (20 % de
médecins ne sont pas informatisés). La rencontre des réseaux
de santé et des TIC via le DMP correspond bien à une
approche « dialogique » du changement au sens d’E. Morin et
J.-L. Le Moigne (22) : synthèse et non plus opposition entre
dynamique et résistance au changement. Dans cet
accompagnement du changement, les URML et l’Ordre des
Médecins veulent jouer un rôle moteur et ont déjà réalisé de
nombreux travaux (enquêtes, séminaires) en ce sens.
La construction de nouvelles pratiques collectives par les
réseaux de santé suppose donc une profonde évolution des
mentalités notamment dans le cas de la médecine libérale
confondant souvent libéralisme et individualisme. Comme l’a
souligné le rapport Fieschi, il s’agit de créer une culture du
partage des données et de leur qualité. Cette construction
progressive ne peut se faire que sur la longue durée. La
dématérialisation des activités médicales et notamment
l’utilisation d’un micro-ordinateur est perçue par certains
praticiens (majoritairement plus âgés) comme une
modification profonde de leurs relations avec leurs patients,
allant trop vers une « médecine sans le corps » (23).
La construction progressive du réseau bronchiolite Ile-deFrance illustre l’évolution d’une organisation-réseau, des
pratiques et du positionnement des acteurs. En 1990, pour
répondre à l’angoisse des parents en période d’épidémie
(novembre-mars), fut mis en place un système de garde
reposant sur le volontariat de kinésithérapeutes et de médecins.
En 2001, deux réseaux différents se constituèrent. Sous
l’impulsion de l’URCAM (Union Régionale des Caisses
d’Assurance Maladie) Ile-de-France, ils se regroupèrent en
2003 dans l’ARB (Association des Réseaux Bronchiolite). Un
centre d’appel orientant les parents vers les professionnels
volontaires fut créé. Le réseau a tout d’abord organisé les
conditions d’une rencontre d’acteurs professionnels qui ne se
côtoyaient pas naturellement (rupture de l’isolement
professionnel) puis construit une confiance partagée :
professionnels (médecins, kiné), familles, institutions. Il a
aussi profondément fait évoluer le positionnement du
kinésithérapeute : de technicien à la tâche prescrite à partenaire
reconnu du médecin (24).
Le début de profonds changements dans l’activité des
professions de santé
Présenté comme l’outil magique pour réaliser le partage de
l’information, le DMP n’est que l’un des éléments d’un vaste
système d’information en santé : dossier médical
d’établissement, télésanté (et notamment télémédecine),
informations davantage administratives : Web médecin ou
historique des remboursements (dont la généralisation
plusieurs fois repoussée est annoncée pour l’automne 2006 et
qui pourrait fournir des données pour le DMP), carte Sesam
Vitale de nouvelle génération qui devrait comprendre des
données médicales et, au-delà, SNIIR-AM (Système National
d’Information Inter-Régimes de l’Assurance Maladie), T2A
(ou tarification à l’activité dans les hôpitaux), mais aussi
logiciels de gestion des cabinets médicaux. Ces outils devront
progressivement s’intégrer dans la régionalisation du schéma
sanitaire en cours pour former des territoires numériques de
santé inter-communicants (25).
Certains sont conscients des risques, évoquant « l’équation
fatidique » : l’apport d’une nouvelle technologie sur une
organisation ancienne en accroissant la complexité et en
augmentant les coûts (26). DMP et T2A (financement des
établissements par les recettes de leur activité) ne sont que des
outils pour améliorer l’efficience (efficacité au meilleur coût)
du système de santé. L’enjeu central est celui d’une nouvelle
gouvernance sachant articuler les partenariats public / privé.
Le DMP qui, dans sa vision actuelle, est confié à de grandes
entreprises du secteur privé, peut ainsi préfigurer le nouveau
rôle d’interface de l’Etat et de l’Assurance Maladie (incitateurs
et évaluateurs). Les partenariats public / privé sont aussi au
cœur de la constitution des nouveaux pôles hospitaliers
(hôpitaux et cliniques d’un même bassin de santé).
La multiplication de réformes simultanées (DMP, T2A,
pôles hospitaliers, évaluation des pratiques) suscite des
inquiétudes. En outre, des centres hospitaliers sont en train
75
76
d’abandonner leurs systèmes d’information au profit de
progiciels de gestion intégrée très structurants type SAP (27),
ce qui aura des conséquences sur les pratiques et les métiers et
semble en contradiction avec le discours officiel sur le DMP et
les réseaux de santé « centrés patients ».
Si l’échange puis le partage des données constituent des
changements profonds, l’évaluation des pratiques personnelles
l’est tout autant : innovation profonde qui constitue une des
missions essentielles de la Haute Autorité de Santé en
coopération avec les URML. Les pouvoirs publics essaient
d’associer les acteurs et notamment les médecins aux réformes
en cours. Le rôle des DAM (délégués de l’assurance maladie)
qui s’est généralisé au printemps 2005 est d’associer les
médecins de ville pour en faire des partenaires responsabilisés
de la maîtrise des prescriptions et donc des dépenses.
Le contexte global de la rencontre des réseaux de santé et
du DMP est donc celui de grands changements reposant
largement sur une meilleure utilisation de l’information et une
communication améliorée. C’est pour cela que le récent
rapport très critique de l’IGAS (Inspection Générale des
Affaires Sociales) jugeant les « réseaux de santé plus que
décevants » notamment en termes de « service médical rendu
aux personnes malades » conseille néanmoins de continuer
leur expérimentation car « ils restent potentiellement
intéressants» et demande même d’inciter plus fortement les
professionnels de santé à s’engager dans ce nouveau mode
d’organisation des soins (28). Ses rédacteurs sont conscients
que les réseaux de santé correspondent à l’émergence
progressive de nouvelles pratiques professionnelles et de
« logiques sociales » qui, comme l’a montré B. Miège, se
construisent sur la longue durée (29).
Conclusion
Les réseaux de santé constituent un champ de rechercheaction prometteur à l’articulation de l’information et de la
communication, dont l’intérêt est accentué par la rencontre
avec le dossier médical personnel (DMP). Ils permettent une
approche de l’innovation à travers la double médiation par le
social et la technique, en étudiant la formation des usages
sociaux des nouveaux outils.
Les changements en cours supposent le partage de
l’information et l’évaluation des pratiques personnelles, ce qui
va considérablement modifier les conditions d’exercice des
professions de santé, dans le domaine de la médecine de ville
mais aussi de l’hôpital, les réseaux de santé se situant à
l’articulation de ces deux mondes trop longtemps séparés.
Ils constituent des organisations « hologrammatiques »
intégrant la plupart des défis auxquels est confronté le système
de santé et ouvrant des possibilités de réponses innovantes. Ils
relèvent d’une approche « dialogique » de la complexité :
complémentarité du local et du global dans le cadre d’une
gestion davantage régionalisée, complémentarité du public et
privé avec un nouveau rôle pour les institutions publiques
(incitatrices et évaluatrices).
Comme l’ensemble du système de santé français, les
réseaux de santé sont à un tournant : seront-ils de simples
variables d’ajustement ou des vecteurs majeurs de
recomposition ? La réponse dépend largement de la confiance
des acteurs (professionnels comme patients) et de leur
appropriation des nouveaux outils proposés, notamment le
DMP, et donc de la construction sur la longue durée de
nouvelles pratiques professionnelles avec le patient et sa
famille.
Références
1) Mucchielli A., Noy C., Etude des communications : Approches
constructivistes, Paris, A. Colin, 2005, p. 113-152.
2 ) Poutout G., « Réseaux de santé : créer du lien pour donner du
sens », in Cabé M.-H. coord., La santé en réseaux Quelles
innovations ?, Sociologies Pratiques, PUF, n°11, 2005, p. 44.
3 ) idem, p. 53
4) Zarifian P., 2001. Le modèle de la compétence, Paris , Liaisons,
2001.
5) Bourret C., “ Réseaux de santé et nouveaux métiers de
l’information ”, Documentaliste - Sciences de l’information, volume
41, n° 3, juin 2004, p. 174 - 181.
Coudreau D., « Les « autres » métiers de la santé. Hébergeur de
données médicales, un nouvel acteur de la régulation de soins ? »,
Sève, n° 10, printemps 2006, p. 51-57.
6) Miège B., L’information-communication objet de connaissance,
De Boeck, Bruxelles, 2004, p. 18 , 64, 111.
7) Le Coadic Y.-F., La science de l’information, Paris : PUF, 2004, p.
110-113.
8) Schweyer F.-X., « Le travail en réseau : un consensus ambigu et un
manque d’outils », in Cabé, p. 89 -92.
9) Elghozi B. « Réseau de santé et activité professionnelle », in Cabé,
p. 17 – 20.
10) Fieschi M. dir., « Les données du patient partagées : la culture du
partage et de la qualité des informations pour améliorer la qualité des
soins », Rapport remis au ministre de la santé, 2003, 55 p.
11) Paquel N., in I Médicale, Le Guide de l’Informatique médicale,
MEDEC 2006, Paris, p. 28 - 30.
12) Coudreau D., art. cit. p. 52.
13) Jégou J.-J., Rapport L’informatisation dans le secteur de la santé,
Sénat, 2005, 65 p.
« Le dossier médical rend malade le ministre de la santé », Le Canard
Enchaîné, 24 mai 2006.
14) Evin C., in Cabé, p. 13.
15) I Médicale, op. cit. p. 36-37.
16) Jouet J., « Retour critique sur la sociologie des usages »,
Communiquer à l’ère des réseaux, Flichy P. et Quéré L. coord.,
Revue Réseaux, vol. 18, n° 100, Paris, Hermès, 2000, p. 489-521.
17) Bellier S., Isaac H., Josserand E., Kalika M., Leroy I., Le emanagement : vers l’entreprise virtuelle ? L’impact des TIC sur
l’organisation et la gestion des compétences, Paris, Liaisons – Cegos,
2002, p. 25.
18) Grosjean M., Henry J., Barcet A., Bonamy J, « La négociation
constitutive et instituante. Les co-configurations du service en réseaux
de soins », Négociations, 2004, 2, pp. 75 – 90.
19) Bourret C., « Construction de sens dans les organisations en
réseaux du domaine de la santé ... », Actes du XIVe Congrès de la
SFSIC, Université Montpellier III (Béziers), 2004, p. 627 – 634.
20) Transposition francisée notamment au Québec de la notion anglosaxonne d’ « empowerment », Réseaux de Santé : la qualité en
pratique, Coordination nationale des réseaux de santé, Paris, 2005, p.
43
21) Chossegros P., in I Médicale, p. 11
22) Morin E., Le Moigne J.-L., L’intelligence de la complexité,
L’Harmattan, 2003.
23) Sicard D., La médecine sans le corps, Plon, 2002.
24) Evenou D. et Pelca D., « Le réseau bronchiolite Ile-de-France une
dynamique en constant renouvellement » in Cabé, p. 73-88.
25) Motel Y., in I Médicale, p. 11
26) Lesteven P., in I Médicale, p. 67.
27) SAP : Systems, Applications and Products in data processing.
28) “Les réseaux de santé “plus que décevants”, Le Monde, 18 mai
2006, p. 13.
29) Miège B., op. cit., p. 198.
76
77
Usage des TIC et la recherche d’une nouvelle conception de l’espace du travail et des nouvelles
relations communicationnelles et socioprofessionnelles
Le cas des entreprises de presse tunisiennes
Samah CHABBEH
GRESEC / Université Grenoble 3
[email protected]
Mots clés : TIC, espace de travail, communication, presse tunisienne
Introduction
Nous assistons aujourd’hui à un développement rapide des
Techniques d’Information et de Communication, abrégées
TIC, et en particulier celui d’Internet. Ce dernier a envahi
quasiment tous les secteurs d’activités dont celui de
l’information. Pour faire face aux nouveaux défis et pour
réaliser leurs objectifs, les entreprises tendent vers
l’introduction et l’usage de ces outils. Nous constatons aussi
une logique d’usage élargie de ces TIC dans différents
domaines. Ce phénomène se vérifie également dans le secteur
de la presse en Tunisie, pays ayant des caractéristiques socioéconomique, politiques et culturelles propres et où le
pluralisme politique et celui de la presse sont récents.
L’insertion des TIC dans l’espace professionnel des
journalistes suscite un débat autour de leurs usages, et les
relations communicationnelles et socio-professionnelles qui
peuvent s’y développer. La question du rapport de l’usager
aux techniques d’information et de communication est
largement abordée dans les sciences de l’information et de la
communication. L’une des questions posées est la suivante : en
quoi les usagers des TIC contribuent-ils à la redéfinition des
formes de l’échange social et des relations personnelles et
professionnelles? Ce lien « recouvre toute une palette de
formes de relations, de situations d’interaction » [P. Chambat,
1992, p. 17]. Nous allons étudier, dans une approche
communicationnelle, les nouveaux rapports entre les différents
acteurs internes de l’entreprise de presse ainsi que les relations
de communication qui émergent au sein du l’espace
professionnel des journalistes tunisiens. Elle consiste en une
forme spécifique aux journalistes tunisiens qui est néée du
mélange de certaines pratiques socio-économiques et
professionnelles (usages différents des TIC, manque de
moyens, insuffisance des compétences en matière des TIC,
différents intérêts d’acteurs, etc.)
Nous nous demanderons dans quelle mesure l’usage des
TIC dans les entreprises de presse tunisiennes constitue une
77
78
nouvelle source de coopération, d’une nouvelle relation
d’échange de communication et d’interaction entre les
différents acteurs. Autrement dit, nous demanderons en quoi
l’usage des TIC dans l’espace professionnel des journalistes
tunisiens peut amener à une redéfinition de celui-ci, des
situations de communications, des rapports d’acteurs et du rôle
de la négociation dans l’aboutissement de la coopération afin
d’atteindre les objectifs ?
1. Considérations méthodologiques et théoriques
Afin de conduire à bien ce travail, nous avons exploité des
les résultats des entretiens semi-directifs que nous avons
effectué entre 2001 et 2004, auprès de plus d’une vingtaine
journalistes, de secrétaires de rédaction, de rédacteurs en chef
et de techniciens. Ces entretiens ont été effectués dans quatre
entreprises de presse tunisiennes : La Presse de Tunisie, AsSahafa, Le Temps et As-Sabah. Ainsi, nous nous sommes
basés sur l’observation directe qui a permis de cerner les
particularités de nouvelles pratiques, de nouvelles utilisations,
les manières de s’approprier les TIC, les rapports d’acteurs et
leurs manières d’agir en exerçant leur activité journalistique.
La méthode d’enquête par entretiens a été privilégiée tant
auprès des journalistes qu’auprès des autres acteurs. Cette
méthode permet de reconstruire un discours avec les personnes
interviewées. « Entant que processus interlocutoire,
l’entretien est un instrument d’investigation spécifique, qui
aide donc à mettre en évidence des faits particuliers.
L’enquête par entretien est l’instrument privilégié de
l’exploration des faits dont la parole est le vecteur principal »
[A. Blanchet, A. Gotman, 1992, p. 25].
2. Les TIC dans les salles de rédactions et l’arrivée de
nouveaux acteurs
Depuis des années, les procédés de fabrication du journal
ont considérablement évolué. Une chaîne de production
héritée de Gutenberg fait place à un monde de production
fortement marqué par l’informatique. Une informatique qui
aide à l’apparition de nouvelles tâches, de nouveaux métiers
dans la presse et de nouveaux acteurs. Aujourd’hui,
l’informatique peut toucher l’ensemble de processus de
fabrication des journaux, du recueil d’information brute,
l’acquisition des textes et des photos jusqu’à la
photocomposition.
Cette nouvelle situation est imposée par la nécessité de
travailler avec ces nouveaux outils et d’améliorer les
conditions de travail, voire « la qualité » du produit final
destiné au grand public. Les responsables de presse et les
professionnels qui pensent que l’introduction et la bonne
appropriation des TIC permet d’améliorer les conditions de
travail, le rendement de journaux, le gain de temps, de papier
et de l’effectif sont nombreux. Avec l’arrivée des techniques
d’information et de communication, le journaliste occupe de
plus en plus des nouvelles responsabilités et de nouvelles
spécialités techniques dans l’entreprise de presse. B. Miège
constate « des déplacements dans la répartition des
responsabilités professionnelles et même parfois des remises
en cause assez profondes des hiérarchies professionnelles,
auxquelles les directions ne peuvent s’opposer frontalement »
[B. Miège, 2004, p. 40]. Par exemple, l’observation de
l’émergence de la presse en ligne met clairement en évidence
que le terme de professionnel de l’information tend à s’élargir
à d’autres catégories plurielles qui recoupent « l’amateurisme,
le militantisme, l’engagement personnel et qui renvoient à une
pratique individuelle ou collective de participation à l’espace
public» [R. Ringoot, J-M. Utard, 2005, p. 197].
En outre, l’insertion des TIC dans les entreprises de presse
tunisiennes a fait émerger de nouveaux acteurs qui sont les
techniciens et les informaticiens. Ces derniers, n’ayant pas une
formation en matière de techniques journalistiques, vont
pouvoir s’approprier les tâches rédactionnelles et utiliseront
les nouveaux outils. Ils joueront un rôle important dans la
phase de construction de l’usage et des rapports de
communication et d’échange entre les différents acteurs
internes de l’entreprise de presse.
2. 1. Usages différents des TIC et évolution des pratiques
Pendant ces dernières années, la profession de journaliste
ne cesse d’évoluer. Certains spécialistes comme Jean Charon
et Jean De Bonville soulignent que l’activité journalistique
s’est trouvée transformé : les techniques d’information et de
communication ont connu une évolution et les supports se sont
multipliés [J. Charon et J. De Bonville, 1996, pp. 15-49].
En effet, avec l’introduction des techniques d’information
et de communication au sein des entreprises de presse,
particulièrement au sein des salles de rédaction, une sorte de
perturbation a émergé dans les pratiques professionnelles des
journalistes. De plus en plus, le journaliste doit saisir ses
textes, composer ses articles, collaborer et participer à la
réalisation de nouvelles tâches. Avec l’introduction des TIC
dans le milieu professionnel des journalistes, certaines tâches
disparaissent et d’autres apparaissent en tant que nouvelles
pratiques : infographiste, webmaster, journaliste informaticien
ou technicien, développeur de contenu en ligne, etc.
Autrement dit, le journaliste doit participer à la nouvelle forme
du journalisme et à la nouvelle manière de l’écriture et de la
mise en forme de l’information afin de la diffuser auprès du
grand public.
A partir des années quatre-vingt, le texte est composé sur
écran et stocké dans un logiciel de traitement de texte sur un
micro-ordinateur. Le montage des pages continue en revanche
à se faire à la main. Plus tard, dans les années quatre-vingt-dix,
la publication assistée par ordinateur permet d’écrire et de faire
le montage et la mise en page se fait sur écran. La Publication
Assistée Par Ordinateur (PAO) est un élément révélateur dans
la presse tunisienne. Contrairement à ce que pensent certains,
la technique toute seule ne réalise pas le développement de la
presse. La PAO ne fabrique pas un journal, mais c’est « un
instrument pratique de travail qui autorise une souplesse dans
le travail et réduit de moitié les délais traditionnels de
fabrication » [H. Jeridi, 1993, p. 26].
Après l’insertion des TIC dans les entreprises de presse
tunisiennes en particulier dans la rédaction, les acteurs internes
de l’entreprise de presse essayent de profiter de l’offre
technique qui leur y est présentée. En effet, l’usage des TIC
diffère d’un acteur à un autre. Chacun essaye de mettre en
place des méthodes et des “tactiques” pour les utiliser. Chacun
tente de les découvrir et de les s’approprier à sa manière. Dans
ce cas, « l’usage se construit dans le temps selon un processus
d’appropriation fondé sur la découverte », a constaté Josiane
Jouët lors de son enquête réalisée auprès des utilisateurs de la
micro-informatique et du minitel [J. Jouët, 1987, p. 29].
Il faut noter que cette étape est intéressante dans
l’établissement du rapport des usagers aux TIC, c’est-à-dire
dans l’élaboration des relations entre TIC, journalistes et leur
dépendance vis-à-vis des autres acteurs (notamment ceux qui
maîtrisent l’usage de ces outils). La période de découverte des
outils joue un rôle important dans la construction de savoirfaire technique. Cette période est qualifiée de période
“d’apprentissage” pour l’acquisition des savoir-faire
informatique ou technique.
Les enquêtés parlent d’apprentissage et de découverte des
techniques d’information et de communication qui se font dans
les centres publics d’Internet (Publinets)35 avec l’aide des amis
35
Les Publinets sont des centres publics d’accès à Internet. Ce modèle de
cyberespace public est une synthèse de l’imbrication typiquement tunisienne entre
service public, initiative privée et agissement politico-économique et sociale. Ces
78
79
(en dehors de lieu de travail) ou avec l’aide d’un collègue (sur
le lieu de travail). L’une des journalistes interviewés a dit :
« Je vais chez une amie pour envoyer des messages
électroniques ou pour apprendre l’utilisation de ces outils. Par
contre, quand il s’agit de l’information en ligne, je demande
aux personnes du service technique de notre journal de
chercher l’information dont j’ai besoin pour l’enrichissement
de mes articles »
[Journaliste, Le Renouveaux, Tunis].
Ayant vécu cette expérience, les enquêtés insistent sur
l’avantage de l’utilisation antérieure de ces outils. Ils sont
intéressés par l’acquisition d’un minimum de savoir-faire, mais
ils restent tout de même dépendants des autres collègues quand
il s’agit de l’utilisation de TIC pour un intérêt professionnel ou
autre.
Après l’étape de découverte de la nouvelle technique, le
journaliste va pouvoir l’utiliser à sa manière. L’appropriation
de ces outils ne se fait pas à partir des pratiques et des
conceptions individuelles, mais elle se construit dans un cadre
général, celui de l’entreprise de presse quotidienne et de sa
culture. Il s’agit d’une appropriation définie et conçue par le
sommet hiérarchique de l’entreprise de presse. Ce sont les
directions des journaux qui décident de l’usage. Il y a une
sorte de configuration de l’outil pour réaliser des activités
professionnelles.
Par exemple, dans certaines rédactions, il faut avoir un
code pour pouvoir accéder au réseau Internet ou pour ouvrir
une session d’Internet. Cette pratique signifie que les
journalistes et les autres acteurs internes n’ont l’éventualité
d’utiliser les techniques d’information et de communication
que pour l’intérêt professionnel et selon ce que la direction
leur demande.
Nous avons pu en déduire que l’usage professionnel est
souvent prescrit par leur direction. Cela entre dans le
programme prédéfini par leur dirigeant. Comme a témoigné
l’interviewé suivant :
« Notre objectif est de généraliser ces outils afin que les
journalistes puissent les utiliser dans l’exercice de leur
métier »
[Rédacteur en chef, Le Renouveaux, Tunis].
Dans ce cadre de l’usage professionnel des dispositifs
techniques, certains journalistes participent à la production
d’articles en exerçant des tâches techniques, traditionnellement
réservées aux informaticiens et aux techniciens. Ils collaborent
à la mise en page de leurs articles, au montage, au traitement
des photos, etc. Comme l’expriment d’ailleurs les personnes
interviewées :
« J’ai la possibilité de participer à la mise en page de mes
travaux quand le temps le permet »
[Journaliste reporter, As-Sabah, Tunis].
« Je peux participer à la mise en page et autres tâches
techniques, n’oubliant pas que j’ai été un technicien et
informaticien à la base, donc je n’ai aucun problème pour
réaliser ces tâches »
[Journaliste, Le Temps, Tunis].
Si certains interlocuteurs ont pu participer à ces fonctions
techniques et ont eu la possibilité de saisir leurs textes,
d’autres n’ont pas pu collaborer à ces tâches. Pour des raisons
liées soit à la pénurie du matériel informatique, soit à la non
compétence technique et informatique ou à d’autres raisons.
Entre la collaboration et la non participation à des tâches
techniques, il existe une autre catégorie qui peut facilement
saisir ces textes et collaborer à la production de ses articles en
général, mais qui pourtant nécessite d’être autonome dans la
espaces sont exclusivement réservés aux services d’Internet.
réalisation de son activité. Ces propos traduisent une réalité
sur l’usage des TIC par les journalistes (saisie, mise en page,
montage, etc.) qui demeure limitée chez certains journalistes.
En effet, à la suite de l’introduction des techniques
d’information et de communication, la question de pratiquer
des tâches techniques et de participer à la production d’articles
nécessite une bonne maîtrise de ces outils et une spécialisation
accrue, d’où le souci de recruter des spécialistes dans le
domaine. Tandis que les journalistes non spécialisé en
informatique, cherchent d’autres moyens pour acquérir de
savoir-faire et des connaissances en matière de l’utilisation des
TIC. Ils collaborent avec les autres techniciens et les
informaticiens afin d’atteindre cet objectif.
Dans cet espace professionnel, l’usage des TIC est selon la
plupart des acteurs interviewés, améliore les conditions de
travail et participe à l’évolution de l’activité journalistique.
Il faut noter que quelques journalistes vont pouvoir
respecter les directives de leurs dirigeants et utiliseront les
outils nouveaux pour l’intérêt du travail. D’autres détourneront
de temps en temps leurs usages pour des intérêts personnels et
privés.
Face à l’accélération du rythme de travail quotidien et au
stress, les journalistes et les différents acteurs internes des
quotidiens cherchent un nouveau mode de communication afin
de s’évader et d’établir des rencontres et des nouvelles
relations sociales. Dans l’usage de la messagerie électronique,
de nouvelles pratiques apparaissent dont le but est de partager
avec les autres : échanger à propos des loisirs, d’intérêts
communs, discuter, établir des relations affective. Les outils
techniques sont devenus des moyens de communication pour
s’exprimer autrement. De plus, l’usage des TIC sur le lieu de
travail à des fins personnelles a re-découpé les frontières entre
la vie privée et la vie professionnelle ou publique. De ce fait,
les TIC se situent donc dans « l’entre-deux des espaces
publics et privés » [J. Jouët, 1993, p. 113]. Les messageries
électroniques brouillent les frontières entre les sphères
publique et privée et les TIC « participent de la redéfinition de
la frontière entre public et privé » [P. Chambat, 1995, p. 74].
Enfin, le nouveau mode de communication se caractérise
par un mélange de relations personnelles directes au travail et
par des relations interpersonnelles indirectes. Le fait d’utiliser
ces outils de communication sur le lieu de travail pour entrer
en relation avec des personnes permet d’observer une sorte
d’entremêlement entre les deux espaces privé et professionnel.
Néanmoins, malgré la capacité de certains journalistes à
utiliser les outils d’information et de communication à des fins
professionnelles et malgré la spécialisation technique d’autres
journalistes et leur capacité à détourner les usages, ces
journalistes rencontrent des difficultés au niveau de
l’utilisation des outils. Ces difficultés se résument en un
manque du matériel informatique et manque des compétences
chez la majorité des journalistes.
2. 2. Manque des moyens et de compétences
Faute d’outils de travail en quantité suffisante
(ordinateurs), quelques rares journalistes, s’orientent vers
l’usage collectif d’un même outil. L’enquête montre que dans
des journaux comme As-Shafa, et As-Sabah, plusieurs
journalistes utilisent un seul ordinateur en même temps. Ils
s’arrangent entre eux afin de pouvoir profiter de cet outil,
comme le confirme l’interviewé suivant :
« Dans notre journal, nous n’avons pas tous la possibilité
d’avoir accès à Internet pendant les heures de travail, car il
existe un seul ordinateur qui est connecté au réseau Internet.
Nous sommes obligés de travailler ensemble afin de pouvoir
contacter nos sources d’information »
[Journaliste secrétaire de rédaction, La Presse, Tunis].
79
80
L’usage de ces outils diffère d’un journal à un autre et
selon les moyens disponibles et les encouragements. Dans
quelques quotidiens comme La Presse de Tunisie et Le Temps,
les journalistes utilisent souvent ces outils dans la réalisation
de leurs taches rédactionnelles (écriture directement sur écran,
participation à la mise en page, montage, recherche
d’information, etc.). La part croissante prise par les usages
professionnels a été observée dans les quotidiens qui ont des
moyens et des dispositifs techniques (un ordinateur pour
chaque journaliste, connexion au réseau accessible au quasi
totalité des journalistes et les acteurs internes de l’entreprise de
presse …). Nous avons compté un seul quotidien Le Temps sur
huit ayant mis un poste d’ordinateur à la disposition de chaque
journaliste, les autres sont soit en étape de généralisation des
moyens, soit n’ont pas suffisamment d’outils. Cela explique en
quelque sorte le faible usage professionnel.
La question des compétences concernant l’utilisation des
TIC est abordée par plus de la moitié des journalistes
interviewés. En effet, ces derniers ont rencontré des difficultés
au niveau de l’utilisation de ces moyens techniques : ils ne
maîtrisent pas (ou peu) certaines fonctions et procédures
techniques. En cas de panne technique simple (blocage de la
machine par exemple), ces derniers se trouvent dans
l’incapacité de résoudre le problème. Certains journalistes ne
savent même pas ouvrir une session web ou chercher une
information en ligne. Dans le même ordre d’idée une
journaliste du quotidien As-Sabah indique qu’elle demande de
l’aide à son collègue pour pouvoir naviguer sur Internet. Elle
dit :
« Je sais qu’il y a trois étapes pour pouvoir
accéder à Internet, mais je ne les connais pas »
[Journaliste, Le Temps, Tunis].
Il s’agit dans ce cas d’une appropriation collective d’un
même outil. Le journaliste fait confiance aux techniciens et va
demander de l’aide pour obtenir ce dont il a besoin pour son
article. Les collègues du journaliste disent aussi que :
« Comme beaucoup d’autres journalistes je ne maîtrise
pas l’utilisation de ces techniques d’information et de
communication. Je rencontre aussi des difficultés au niveau
de l’utilisation de tous les logiciels, même le traitement de
texte »
[Journaliste secrétaire de rédaction, As-Sahafa, Tunis].
« La grande difficulté pour moi est la non maîtrise de ces
outils »
[Journaliste rédacteur, As-Sabah, Tunis].
Ainsi, nous constatons que la non maîtrise de ces outils
peut constituer un obstacle à l’évolution des pratiques
journalistiques. Car, comme l’écrit J-M. Charon, « la bonne
maîtrise de l’innovation technologique aura des fortes
répercussions sur l’avenir des titres, interférant aussi bien sur
les coûts que sur la compétitivité des journaux. Cette maîtrise
comporte comportait une dimension purement technologique,
mais aussi humaine (formation) et sociale (diminution et
évolution des effectifs et des compétences) » [J-M. Charon,
2005, p. 51].
Face au manque de compétences et de savoir-faire
technique et informatique, certains journalistes demandent de
l’aide. Ils coopèrent avec les nouveaux acteurs (techniciens et
informaticiens) afin d’apprendre quelques aspects techniques
et les manières d’utiliser certains logiciels pour la fabrication
du journal. Ici, le processus de communication s’avère
intéressant afin d’établir des relations d’échange
d’information, de savoir-faire et d’expérience.
3. L’espace de travail comme espace hétérogène et
communiquant
Depuis quelques temps, la question de la conception de
l’espace de travail se pose en des termes nouveaux qui sont
étroitement liés aux caractéristiques de ces nouveaux
dispositifs techniques. Dans ce cadre, il est proposé de préférer
une approche d’interdépendance entre les techniques, la
communication, les relations socio-professionnelles et
l’organisation de l’entreprise. C’est pourquoi nous nous
proposons de nous placer d’emblée dans un cadre conceptuel
d’action qui dépasse la seule approche technique. Nous allons
analyser cette question des relations qui peuvent exister entre
les différents acteurs de l’entreprise de presse tunisienne,
notamment face à l’insuffisance du matériel et au manque de
compétence en matière de TIC.
3. 1. Les différents acteurs dans une nouvelle situation de
communication et de collaboration
L’introduction et l’usage des TIC dans la rédaction
favorise des usages différents et la création de nouvelles
pratiques chez les journalistes, mais elle invite aussi à repenser
les relations entre ces derniers et les autres acteurs internes de
l’entreprise. Les propos des journalistes et des acteurs
interviewés montrent que l’introduction des TIC dans l’espace
de travail favorise la communication face à face et l’échange
des idées, des expériences et des compétences. En outre
l’insertion de ces outils dans les entreprises de presse aide à la
multiplication d’acteurs et d’intervenants souhaitant exercer le
métier.
Du jour au lendemain, il n’y a plus seulement des
journalistes qui pratiquent le métier de journaliste, mais aussi
d’autres acteurs qui interviennent pour produire de
l’information. En ce sens, le journaliste ne représente pas
l’exclusivité du métier, mais d’autres acteurs interviennent
dans le processus de production de l’information. La
croissance des intervenants dans le domaine de la presse fait
émerger des nouvelles logiques de communications, des
logiques économiques et politiques.
Dans une entreprise de presse, il ne faut pas se contenter
de la vision d’un idéal organisationnel, où chaque acteur est
compétent dans son domaine, connaît ses devoirs et les tâches
qu’il est amené à réaliser au sein de l’entreprise. Bien au
contraire, chaque acteur est amené à aider son collègue, à
partager des connaissances et à coopérer afin de réaliser leur
objectif. Les TIC permettent à leurs utilisateurs de créer des
espaces de communication et de se distraire, mais aussi de
partager les mêmes intérêts et objectifs.
Cet usage des TIC dans les entreprises de presse
tunisiennes requiert un minimum de compétence et de savoirfaire technique et informatique. Mais la question de la
compétence technique suppose que les journalistes et ceux qui
détiennent ces outils soient capables de les utiliser. Dans notre
cas, il s’agit d’établir une négociation entre les techniciens et
informaticiens et les journalistes afin d’atteindre leur objectifs.
Plus précisément, ces différents acteurs doivent établir une
relation d’échange de compétences et des expériences. La
négociation apparaît comme « une relation d’échange, donc
de négociation dans laquelle deux personnes au moins sont
engagées » [M. Crozier et E. Friedberg, 1977, p. 66].
Tous ces changements dans l’espace de travail ont donné
lieu à une négociation permanente entre les différents acteurs
consistant à redéfinir la compétence des journalistes « comme
produit d’un accord entre les parties » [D. Reullan, 1997,
p.148]. Autrement dit comme produit d’accord entre les
différents acteurs et différents intérêts.
Les différents acteurs internes doivent développer des
accommodements bénéfiques pour eux : apprendre à
80
81
communiquer entre eux et à vivre ensemble dans un même
espace de travail. Ils doivent trouver des arrangements de
coopération. Une journaliste du quotidien As-Sahafa
mentionne qu’elle a besoin de l’aide de son collègue pour
chercher une information sur Internet :
« Je demande souvent à mon collègue de m’aider à me
connecter sur Internet »
[Journaliste, As-Sahaf, Tunis].
En effet, la négociation apparaît, aussi bien pour les
journalistes que pour les techniciens, comme une stratégie
efficace afin d’acquérir une nouvelle compétence informatique
surtout si l’entreprise de presse ne peut assurer la formation en
matière de TIC que pour quelques journalistes. Ces derniers
coopèrent avec les informaticiens afin d’apprendre à se servir
des nouveaux outils. Ils doivent créer de relations de
confiance, du lien social et d’échange avec les différents
acteurs internes de l’entreprise. Autrement dit, ils doivent
communiquer avec les différents acteurs afin d’atteindre leur
objectifs.
Nous nous référerons aux travaux de Yves de La Haye
pour expliquer la situation de communication au sein des
quotidiens. L’auteur relève que «la situation de
communication dans la presse quotidienne est caractérisée
par ailleurs par une grande variété des types d’agents de
production interne à l’institution » [Y. De la Haye, 1985, p.
86].
3. 2. Vers un service rédactionnel hétérogène et
communiquant
Il est nécessaire de prendre en considération l’aspect
communicationnel
dans
l’organisation,
car
« la
communication est au cœur d’un procès de réorganisation
profonde du management du travail, plus précisément du
modèle d’organisation scientifique du travail » [B. Miège,
1996, p. 55]. Depuis l’époque de l’industrialisation, les
modèles d’organisation n’arrêtent pas d’évoluer vers une
complexité de plus en plus élevée. Et ceci, en raison d’un
changement dans les canaux et les manières de circulation de
l’information au sein de l’entreprise et entre l’entreprise et son
environnement général. Depuis des années, la circulation des
informations à l’intérieur de l’entreprise est marquée par une
logique basée sur la structure pyramidale, la centralisation des
décisions.
L’introduction des TIC dans la rédaction de presse est
l’occasion d’une réorganisation du travail, redistribution des
tâches et même des relations hiérarchiques. Telle est l’entrée
que nous proposons pour aborder cet ensemble encore peu
structuré et multiforme qu’est la communication dans la
rédaction. L’introduction de ces outils dans les salles de
rédaction nécessite un réaménagement de l’espace afin
d’organiser le travail et de développer une communication
entre les différents acteurs internes de l’entreprise. La
communication, au sens où les gens l’utilisent aujourd’hui, a
connu son grand essor dans les pays occidentaux. Elle n’a pris
sens dans les pays en développement qu’à partir de la fin des
années quatre-vingt-dix.
Pour le cas tunisien, la communication se fait parfois
d’une manière aléatoire. Il existe des canaux formels et
informels ou la communication intime. En ce sens les TIC
n’apportent pas un grand intérêt pour la communication
institutionnelle.
Concernant le cas de la presse tunisienne, certains
journalistes, secrétaires de rédaction et mêmes des directeurs
affirment que les TIC aident à la naissance d’une nouvelle
forme de communication entre les journalistes « camarades ».
Ils veulent dire que la communication est beaucoup facilitée
non par les TIC, mais par le rapport social (amitié, voisinage,
confiance, usage collectif d’un même outil, entraide…) établi
entre eux.
Mais, si certains acteurs parlent d’une nouvelle forme de
communication qui est née au sein de la rédaction, d’autres
dénoncent la non communication. Bien au contraire, ces TIC
accompagnent le conflit entre les différents acteurs. Parfois,
elle augmente le phénomène d’égoïsme entre les journalistes.
Ce conflit sera augmenté surtout avec l’entrée de nouveaux
acteurs dans la rédaction. La thèse que les TIC augmente le
phénomène communicationnel dans les entreprises de presse
entre les différents acteurs prouve ses limites.
Conclusion
Le rapport de l’usager aux TIC est largement étudié dans
les sciences de l’information et de la communication. Nous
l’avons abordé sous un angle nouveau, en considérant le
groupe professionnel des journalistes dans son rapport à ces
outils, comme acteur de production de nouvelles relations de
communication. Cette dernière consiste en une forme
spécifique aux journalistes tunisiens. Elle est née du mélange
de certaines pratiques et mécanismes : usages différents des
TIC, manque d’outils et de moyens, coût élevé des matériels et
logiciels informatiques, manque de compétences en matière de
TIC, besoin de divertissement et de rencontre. « Les pratiques
des nouvelles technologies ne mettent pas seulement en jeu la
relation de l’individu à ces objets mais revêtent aussi un sens
social » [J. Jouët, 1987, p. 78]. Autrement dit, il y a un désir
de créer du lien social et d’échange entre les différentes
personnes appartenant à un même espace de travail ou parfois
même avec d’autres personnes appartenant à des territoires
autres.
A partir de cette analyse sur l’usage des TIC et les rapports
d’acteurs, nous avons pu relever combien dans cette situation
d’échange, d’usage collectif et d’entraide, le processus de
communication s’impose. Les différents membres du groupe
communiquent et échangent des relations entre eux. Comme a
dit un journaliste :
« Quand il s’agit de l’usage collectif de ces outils, il y a
toujours un contenu conversationnel à échanger »
[Journaliste, le Temps, Tunis].
Ainsi, c’est en recourant aux réponses formulées par les
journalistes dans le cadre de notre enquête que nous déduisons
que l’utilisation des TIC diffère selon la situation du journal,
selon les moyens qu’il dispose et selon les motivations de
chaque acteur de se servir de ces outils. Il apparaît que la
majorité des journalistes s’intéressent aux techniques
d’information et de communication. Ils ont une avidité à les
découvrir et de les utiliser. Ces techniques représentent des
moyens pour faciliter la tâche de l’écriture, du recueil
d’informations, de la mise en page, de documentation,
d’enregistrement des données et de montage des photos.
Ces outils participent à l’évolution de l’activité
journalistique en Tunisie et l’amélioration des conditions de
travail. Mais elle est caractérisée par un certain nombre
d’éléments comme l’usage collectif, manque des outils,
pénurie des moyens de financement et de formation,
insuffisance des compétences, etc.
Enfin, ce serait une erreur conceptuelle de privilégier la
technique et de dire qu’elle a profondément modifié les
méthodes de travail, les relations de communication et
socioprofessionnelles dans cet espace de travail collectif. En
effet, d’autres éléments peuvent entrer en jeu, telles que la
culture d’entreprise, la politique socio-économique et la
démarche politique du pays dans lequel ils se trouvent.
81
82
Références bibliographiques
BLANCHET Alain, GOTMAN Anne, L’enquête et ses méthodes :
l’entretien, éd. Nathan, Paris, 1992, 125 p.
CHAMBAT Pierre, « Espace public, espace privé : le rôle de la
médiation technique », in PAILLIART Isabelle (dir.), L’espace public
et l’emprise de la communication, éd. ELLUG, Grenoble 1995, p. 74.
CHAMBAT Pierre, « Usages des technologies de l'information et de la
communication : évolution des problématiques », in Technologies de
l’information et société, n° 3, éd. Dunod, 1994.
CHAMBAT Pierre (dir.), Communication et lien social : usage des
machines à communiquer, éd. Descartes, Paris, 1992, 281 p.
CHARON Jean-Marie, La presse quotidienne, éd. La Découverte,
(nouvelle édition), Paris, 2005, 122 p.
CHARRON Jean, DE BONVILLE Jean, « Présentation. Journalisme
en mutation. Perspectives de recherche et orientations
méthodologiques », in Communication, Vol.17, n° 2, décembre 1996,
pp. 15-49.
CROZIER Michel, FRIEDBERG Erhard, L’acteur et le système, éd.
Du Seuil, Paris, 1977, 500 p. (Collection « Points essais »).
DE LA HAYE Yves, Journalisme, mode d’emploi : des manières
d’écrire l’actualité, éd. ELLUG, Grenoble, 1985, 216 p. (Collection
« La Pensée Sauvage »)
JERIDI Hajer, L’informatisation de la presse tunisienne : enquête
sociologique, Mémoire de fin d’études en journalisme, sous la
direction de AOUSSA Mohamed Lamine, Université de Tunis I, IPSI,
1993, p. 26.
JOUËT Josiane, « Pratiques de communication et figures de la
médiation », in Réseaux, n° 60, éd. CNET, Paris, 1993, pp. 101-119.
JOUËT Josiane, L’écran apprivoisé. Télématique et informatique à
domicile, éd. CNET, Paris, 1987, p. 29.
MIÈGE
Bernard,
L’information-communication,
objet
de
connaissance, éd. De Boeck, Bruxelles, 2004, 242 p.
MIÈGE Bernard, La société conquise par la communication- 1.
Logiques sociales, éd. PUG, Grenoble, 1996, 226 p. (Collection
« Communication, Médias et Sociétés »).
RINGOOT Roselyne, UTARD Jean,-Michel, Le journalisme en
invention. Nouvelles pratiques, nouveaux acteurs, éd. Presse
Universitaire de Rennes, Rennes 2005, 215 p.
RUELLAN Denis, « Groupe professionnel et marché de travail du
journalisme », in Réseaux, n° 81, éd. CNET, Paris, 1997, pp. 137-151.
RUELLAN Denis, Les « pro » du journalisme. De l’état au statut, la
construction d’un espace professionnel, Thèse de doctorat en
Sciences de l’information et de la Communication, Université de
Rennes1, Rennes, 1996, 299 p.
RUELLAN Denis, Le professionnalisme des reporters. Espace de
travail et modes de production, Thèse de doctorat en sciences de
l’information et de la communication, sous la direction de
MATTELART Armand, Université de Rennes II, Hautes Bretagne,
Rennes II, 1992, 455 p.
Télé-Présence avec Images et Sons (T-PIS) et communication organisationnelle
Guislaine CHABERT
IREGE / Université de Savoie,
[email protected]
et Jacques IBANEZ-BUENO
IREGE / Université de Savoie,
[email protected]
Introduction
Comme de nombreuses T.I.C, les technologies de la Télé-
Présence avec Images et Sons (T-PIS36) ont une histoire
jalonnée d’échecs, d’espoirs et d’expérimentations. Il est
36
Prononciation : [Tipi]
82
83
possible de distinguer différentes étapes dans l’histoire des
recherches sur la visiocommunication que l’on peut définir
comme “technique permettant la communication visuelle et
audio via un réseau” (Cardon, de la Vega, Licoppe, Pujalte,
1999). Tout d’abord, les premières recherches convergent vers
le même constat d’échec de la machine à communiquer
« visiophone » et établissent le bilan d’une offre prééminente
et idéalisée par rapport à la demande, tant dans la sphère
privée que dans la sphère professionnelle. Indépendamment
des logiques des fabricants de matériels et des opérateurs de
télécommunications, les approches centrées sur les usages
constatent la faible demande sociale autour de cette forme de
communication à distance (Perriault, 1989). A partir de 1984,
on expérimente à Biarritz en première mondiale un dispositif
de visiophonie basé sur un des premiers réseaux de fibre
optique. Des usages “pionniers” émergent durant les années
d’expérimentation et sont observés dans certains travaux
précurseurs portant sur les “usages domestiques du
visiophone” (Jauréguiberry, 1989) ou encore sur les
caractéristiques de “l’interaction visiophonique” (De Fornel,
1989). Mais il faut attendre le 21ème siècle pour que l’offre de
visioconférence trouve un marché dans les domaines éducatif
et
organisationnel.
Actuellement,
de
nouvelles
expérimentations en visiophonie se déroulent au sein des
organisations publiques37. Parallèlement, la miniaturisation des
matériels de captation de l’image et du son, la faiblesse des
coûts des matériels et leur facilité d’utilisation et, surtout la
remise en cause d’une tarification à la durée des réseaux de
communication adaptés au large débit permettent une réelle
offre grand public de communication, de type visiophone via
Internet. Les organisations sont perméables à une offre dont
elles peuvent aussi être les bénéficiaires. L’évolution des
“formes organisationnelles” (élargissement des communautés
organisationnelles, délocalisation, internationalisation) a pu
également accentuer le besoin de vision à distance et
d’économie de déplacements (en kilomètres, frais et risques).
L’organisation d’une visioréunion ne nécessite plus forcément
un matériel lourd et coûteux et la présence de deux
techniciens. Par exemple, la technologie nécessaire peut être
intégrée dans un matériel polyvalent tels le PC et le mobile
téléphonique multimédia.
Forts des enseignements de ces premières recherches, nous
rendons compte ici des premiers résultats d’une recherche
portant sur les usages de la visiocommunication dans les
contextes organisationnels. Nous nous intéressons plus
spécifiquement aux contraintes rituelles actualisées par ces
technologies dans les contextes organisationnels, aux relations
entre ces technologies à distance et les technologies
d’information et communication préexistantes, et enfin aux
modalités de cette visiocommunication (qui réintroduit par
exemple du non verbal dans l’échange à distance). Les travaux
de recherche sur la “coprésence” notamment établie par les
logiciels de messageries instantanées insistent surtout sur le
mode strictement “écrit”, “dépouillé des nombreux indices non
verbaux de la rencontre en face-à-face” de ce mode de
communication (Denis, Licoppe, 2005) au détriment du mode
“visuel” et “audio” de cette activité communicationnelle.
Par ailleurs, les moyens de communication dont il est
question ici (notamment le dispositif webcams et internet) ont
la particularité d’être présents dans l’entreprise pour un usage
professionnel et privé ou, à domicile pour un usage privé et
professionnel. En effet, aujourd’hui les recherches convergent
vers l’idée que “les trois principales sphères de pratiques de
37
Par exemple, « Points Visio-publics » se déroule depuis 2005 en Auvergne. Il
s’agit de bornes France Télécom installées dans des lieux publics qui permettent,
grâce à un système de visiophonie intégrée, d’entrer en contact visuellement avec
des agents de l’ANPE.
communication identifiées par les marchés des opérateurs de
télécommunication
(domestique,
professionnelle
et
personnelle) apparaissent de plus en plus enchevêtrées”
(Proulx, 2005). De récentes études montrent ainsi
“l’interpénétration
des
sociabilités
personnelles
et
professionnelles sous l’effet de la contraction des agendas, de
la mobilité des personnes et de la portabilité des outils de
communication” (Cardon, Smoreda, Beaudoin, in Proulx,
2005) et nous souhaiterions observer de près ces
“entrelacements” d’usages des moyens de communication
multi-sphères. Dans ce contexte, le groupe de chercheurs
s’intéresse aux mêmes technologies dans la sphère privée et
pourra ainsi provoquer une résonance pour des usages multisphères (Flichy, 2005). Cette mise en relation correspond à
l’utilité d’une “évaluation publique permanente des pratiques
professionnelles et une perpétuelle dislocation/redéfinition des
limites entre les sphères publiques, privées, professionnelles”
(Le Moenne, 2003) au sein de la recherche interdisciplinaire
sur les logiques et les enjeux de la communication
organisationnelle.
Quelle T-PIS?
Le travail présenté ici rend compte des débuts d’une
recherche planifiée sur au moins 18 mois et dont l’objet est
l’usage de la télé-présence avec images et sons (T-PIS) et ses
pratiques émergentes au sein d’un échantillon d’entreprises.
Dans le cadre d’un Bonus Qualité Recherche de l’Université
de Savoie38 soutenu par l’Assemblée des Pays de Savoie, nous
avons bénéficié d’une convention entre l’Institut de
Management de l’Université de Savoie (IMUS) et le Club des
Entreprises de l’IMUS. Cette convention facilite la recherche
universitaire et les collaborations avec un groupe d’une
quarantaine d’entreprises privées qui ont leur siège en HauteSavoie ou Savoie (ou un lieu de production ou de services
dans ces mêmes départements)39.
A partir de la définition de Weissberg (1999 : 1340) nous
considérons qu’il y a télé-présence avec image et sons (T-PIS)
dans l’entreprise lorsque tous les critères suivants sont réunis :
- présence d’au moins deux acteurs membres d’une ou
plusieurs entreprises et distants dans le dispositif de
communication
- chaque acteur est émetteur-récepteur dans le cadre d’une
communication réellement bi-directionnelle avec possibilité
réciproque d’agir sur le dispositif
- captation permanente d’images animées pour chaque
acteur
- captation permanente de sons pour chaque acteur
- représentation visuelle des deux émetteurs-récepteurs
(sans avatar)
- diffusion et réception synchrone
La réunion cumulée de ces critères permet d’intégrer au
sein des T-PIS les usages de la visioréunion et de la
visiophonie. Pour cette dernière, sont concernés les
équipements légers avec ordinateurs, webcams et logiciels tels
Messenger, Skype, Net-meeting ou IChat (Apple). Sont
également concernés les téléphones mobiles de dernière
génération (3G).
La visioconférence (schéma de la conférence avec un
émetteur principal doté d’un statut de locuteur proche du
conférencier) est intégrée en tant que T-PIS, si le public en
38
avec la participation de Jean Moscarola, professeur des Universités en gestion.
39 Les entreprises de communication (exemple : agence de publicité) ont été
exclues volontairement de l’échantillon.
40
« Dupliquer non seulement l’apparence de la réalité mais sa mise en
disponibilité – c’est à dire le mode d’accès à cette réalité transposée -, telle
pourrait être la définition de la Téléprésence »
83
84
plus de l’émission permanente de messages iconiques (fenêtre
du public sur l’écran du locuteur principal) a la possibilité
d’une transmission sonore même réduite en temps de parole. Il
est à noter, que dans la pratique relevée dans les entreprises
observées, le terme de visioconférence est appliquée à la place
de visioréunion. Bien évidemment, un dispositif de
vidéosurveillance est exclu des T-PIS. Il en est de même pour
une captation d’images de salariés au travail ou circulant dans
des lieux de passages retransmis sur des écrans (de type écran
plat avec images et informations scripturales diffusées par un
service communication).
Orientations méthodologiques
Seront combinées, pour l’analyse des usages des T-PIS,
des données quantitatives (questionnaires diffusés en ligne,
analyses via le logiciel Sphinx-Online et études documentaires
et statistiques) et des données plus qualitatives (entretiens
approfondis). Les méthodes propres à la sociologie
traditionnelle (entretien de salariés) adaptées à la connaissance
des usages technologiques seront complétées par des outils
issus de la sémiotique et de la phénoménologie appliquées au
multimédia et aux réseaux. A titre d’exemple, les entretiens
pourront être filmés à distance via des webcams en reprenant
des principes de l’anthropologie visuelle. Les croisements
méthodologiques doivent amener à un traitement des différents
contenus et à des propositions de catégorisation des
comportements
corporels
dans
la
communication
organisationnelle à distance.
L’évolution des technologies à distance oblige le
chercheur à innover au niveau méthodologique. C’est
pourquoi, face à ce champ en construction que représente
l’appropriation de ces nouvelles technologies de télé-présence
et les interrogations qu’il entraîne, les travaux relatifs à la
« virtual ethnography » seront sollicités (Hine, 2000). Bien
sûr, il ne s’agit pas ici de prétendre à une quelconque rupture
méthodologique mais à l’introduction d’éléments innovants
dans le sens de la définition suivante de l’innovation
méthodologique (Jankowski, 1999 : 368) : “ basic definition of
methodological innovation might serve as a good starting
point for understanding what is meant by the term:
“Methodological innovation refers to the use of original or
modification of conventional research approaches, designs and
methods in the study of new media”. Cette méthodologie
paraît innovante dans la mesure où elle permet de dépasser le
simple niveau de déclaration des usagers (…) par, d’une part,
“le recueil de données croisées concernant l’usage parallèle de
plusieurs supports ” et d’autre part “l’observation du
maniement des dispositifs en situation d’usage avec
verbalisation de l’usager et enregistrement vidéo” (Proulx,
2005 : 13). En effet, nous estimons que la communication à
distance impose au chercheur d’adopter des postures réflexives
et en miroir à une dimension fondamentale de forme de
communication : la télé-présence. Nous ajouterons en fin de
recherche des éléments méthodologiques complémentaires à
une analyse « réelle », et sur site, de matériaux par des
éléments méthodologiques virtuels.
Un premier « questionnaire d’équipement » a été diffusé
auprès des entreprises partenaires du Club des Entreprises.
Une quinzaine d’entreprises a répondu à ce questionnaire
d’équipement administré exclusivement via internet41. Les
résultats obtenus nous ont permis de distinguer les entreprises
se déclarant équipées (5/14) des entreprises se déclarant nonéquipées (9/14), ou encore les entreprises déclarant ne plus
être équipées (cas unique d’une entreprise « déçue » à l’usage
41
Le questionnaire peut être consulté à
http://www.sphinxonline.net/gsica/telepresence/index.htm.
cette
adresse
:
par ces technologies ?) des entreprises déclarant souhaiter
investir dans ces technologies (6/9). Les 5 entreprises
équipées le sont depuis plus de 2 ans, ce qui laisse penser
qu’elles le sont surtout pour des équipements de type
visioconférences technologiquement performants depuis plus
de 2 ans, alors que les services de visiocommunication via
webcams et logiciels de « webconferencing » sont arrivés sur
le marché plus récemment. Enfin, pour 3 d’entre elles la
pratique est fréquente et installée. La prise en compte
d’informations sur le contexte organisationnel (services, statut
professionnel des répondants, activité multi-site ou mono-site
des organisations, coordonnées des répondants) a été utile à
l’élaboration de l’échantillon.
Trois entretiens exploratoires approfondis (entre une heure
et une heure trente) ont été effectués auprès des usagers de
trois entreprises déclarant être utilisatrices des T-PIS dans le
questionnaire d’équipement. Cet échantillon exploratoire est
ainsi composé d’un responsable du service organisation d’une
société privée de services, du Directeur des Ressources
Humaines d’un groupe industriel privé savoyard et enfin du
responsable de la communication interne d’un groupe
industriel privé haut-savoyard. Ces entretiens visaient à
retracer les usages des différents moyens de communication à
distance avec images et sons dans chacune des organisations.
Les entretiens ont été réalisés dans les entreprises concernées
et pour l’un deux dans la salle même de visioréunion du site.
La visiophonie mobile (via téléphone 3G) n’étant pas un
mode de communication en pratique dans les trois entreprises
observées42, nous rendons compte ici des résultats concernant
les usages de la visiophonie via webcam et de la visioréunion
en contexte organisationnel.
Des usages stabilisés de la visioréunion dans les
organisations
Les systèmes nommés communément “visioconférences”
sont utilisés à des fins de “visioréunions” dans les trois
organisations observées. Les usagers “font des visios”
indiquant par l’appropriation et le détournement du terme que
le système s’est totalement banalisé. En effet, les visioréunions
donnent lieu dans les trois entreprises à des usages stabilisés,
au sens d’une forme de coopération à distance. Cette dernière
possède aujourd’hui une stabilité et se manifeste de façon
habituelle et normalisée comme “pratique sociale que
l’ancienneté ou la fréquence rend normale dans une culture
donnée”43. Les échanges y favorisent une téléprésence visuelle
et sonore avec des collègues éloignés géographiquement
(situés dans d’autres sites nationaux ou internationaux).
L’usage qui en découle reste néanmoins pour le moment
strictement interne (la visioréunion n’est pas utilisée pour le
recrutement par exemple) et transversal (peu d’échanges
vertico-hiérarchiques). Les remarques négatives formulées par
les salariés vis à vis de ces T-PIS peuvent être tout à fait
complémentaires à l’adhésion critique des personnels au
« management rationnel » (Lamizet, 2001)
Pour ce qui est de la nature des visioréunions, les trois
salariés interviewés évoquent des échanges orientés vers la
démarche projet (état d’avancement dans un projet) et
considèrent que la visioréunion est adaptée à une démarche
d’explications et de clarifications, ou au partage de savoirsfaire TIC par exemple (système informatique commun utilisé,
42
De nombreuses campagnes publicitaires réalisées en 2006 soulignent les
possibilités liées à la visiophonie mobile plutôt dans le domaine privé (“les images
parlent mieux que les mots”, SFR). Sans que cette technologie soit utilisée dans
les environnements professionnels de l’étude, on peut néanmoins constater qu’il y
a veille technologique effectuée par les personnels « capteurs » dans les
entreprises puisque les arguments mis en avant par les interviewés sont que la
qualité de l’image n’est pas encore assez bonne en visiophonie.
43
Définition de “l’usage” in Dictionnaire de Sociologie, André Akoun, Pierre
Ansart. Le Robert, Seuil, 1999.
84
85
téléphonie sous IP…). La communication à distance favorisée
ici semble également appropriée à des réunions-produits
lorsque apparaît le besoin de montrer de nouveaux produits,
ou de voir de nouveaux produits selon que l’on se place d’un
côté ou de l’autre de la relation. En revanche, la visioréunion
n’est pas un mode de communication adapté à la prise de
décision. En phase décisionnelle, les réunions en face à face
sont jugées plus adaptées (comme si l’image ou la distance
introduisaient une difficulté supplémentaire à la négociation).
La visiocommunication est considérée par les interviewés
comme étant “efficace”, dans le sens où il y a centrage rapide
sur l’ordre du jour de la réunion mais en contrepartie elle est
aussi vécue comme “structurante”. Cette forme de coopération
à distance suppose ainsi des rapports plus abstraits et plus
formels. De plus, et même si les freins techniques ou cognitifs
observés initialement lors des premières études ont disparu des
discours des usagers, l’image semble imposer de nouvelles
règles voire des limites à cette forme de communication
interpersonnelle en contexte organisationnel : elle impose une
certaine “retenue”, exige une répartition disciplinée de la
parole, contraint à dépassionner les débats et à perdre de la
sorte en convivialité. La visiocommunication offre “la
possibilité d’une expérience de communication où l’on se
verrait communiquer” (Jauréguiberry, 1989 : 94) et où l’on
pourrait contrôler l’image projetée de soi, or il serait
intéressant dans le cadre des relations professionnelles
d’observer si cette “fonction miroir” peut être repérée dans la
pratique des visioréunions. Enfin, l’usage de la visioréunion
en contexte organisationnel est généralement collectif (avec
des variations sur le nombre d’individus selon les
organisations). Deux entreprises évoquent des réunions faites
en visio à deux interlocuteurs. Dans ce cas, elle est préférée au
média téléphone pour des réunions censées durer et pour
apporter “plus de confort” aux usagers (indépendamment de la
fatigue pouvant être ressentie par nécessité d’attention accrue).
L’image dans ce cas semble apporter un “plus” non
négligeable dans le contexte des échanges interpersonnels
professionnels.
Les salariés semblent
intégrer la
communication de T-PIS comme une autre forme de
communication en tant compétence nécessaire « sens du
contact, qualités relationnelles, disponibilité, adaptation…»
(Olivesi, 2002)
Dans les trois entreprises, la visiocommunication reste une
activité qui ne se substitue pas à des interactions en face à face.
Tous les usagers interviewés insistent sur la nécessité de se
rendre en parallèle régulièrement sur le terrain, de maintenir
des échanges collectifs en présentiel, ou de “sentir le produit”
dans le cadre de réunions-produits. Le soutien de la direction à
ce niveau semble acquis, à tel point que contrairement au
leitmotiv du gain de temps et d’argent ayant concouru au
succès initial de ce mode d’échanges à distance, la
visioréunion n’est utilisée aujourd’hui dans certains cas que
“par défaut” lorsque les acteurs d’un projet dans l’entreprise
ne peuvent pas se voir. Ce constat converge avec de nombreux
travaux réalisés en sociologie des usages qui montrent sans
ambiguïté, d’une part qu’il n’y a pas de concurrence entre les
médias mais “entrelacement” de pratiques (Cardon, Smoreda,
Beaudoin, 2005 in Proulx, 2005) et que, d’autre part l’usage se
stabilise toujours après une phase d’idéalisation pour “revenir
à sa juste place”. Cette position de non possible substitution
revêt un caractère proche de Palo Alto dans le sens qu’on ne
peut faire l’économie d’une relation continue ou discontinue
entre individus. Dans cette relation indispensable, il est
possible qu’à certains moments aucune information ne circule,
si ce n’est que sur le fait d’être ensemble et de communiquer
sur le fait d’être ensemble. Une visioréunion sans rencontre
directe permet difficilement une communication analogique et
la fonction phatique de la communication (Jakobson) s’opère
faiblement. Il serait intéressant de vérifier l’hypothèse d’une
possible diffusion de ces idées (désormais largement
enseignées dans les formations de haut niveau) par les
directions de la communication des entreprises les plus
importantes en termes de nombre de salariés.
La crainte des webcams
Deux des entreprises semblent avoir des positions
craintives quant au développement de relation bidirectionnelle
entre les individus. Le mot « interdit » est venu immédiatement
lorsque nous avons questionné sur l’existence de PC avec
Webcam. L’argument de la sécurité informatique est apparu
immédiatement dans les entretiens. Cette posture craintive se
doit d’être comparée aux débuts de la mise en place des accès
directs à Internet pour les salariés (sites + messageries). Le
discours du moment s’apparentait à une peur des dirigeants au
sujet des salariés supposés être distraits par des pages écran de
loisirs ou érotiques, ou d’avoir des communications à caractère
intime à une période où le taux d’équipement des ménages
demeurait encore très faible. La peur affichée du virus
informatique entraîne une forte réduction des fichiers diffusés
et une configuration quasi-identique des logiciels. Cette
uniformisation, le contrôle des configurations logicielles,
l’hésitation à distribuer des webcams et le refus d’introduire
des logiciels comme Messenger ou Netmeeting peuvent
également être analysés comme une interdiction d’un mode
interpersonnel de communication associant l’image et le son.
L’hypothèse formulée serait un refus diffus d’un usage
multisphère (à la fois professionnel et privé) par les dirigeants.
Ce discours teinté de craintes illustre une position
pessimiste souvent observée en sociologie critique de
l’innovation lors de l’émergence d’une technologie et
symptomatique d’une exagération des dangers liés aux
nouvelles technologies : insécurité, surveillance, isolement
accru par le réseau, désocialisation... Une des entreprises
prévoit toutefois d’équiper prochainement certains personnels
de mini-caméras et de portables PC à l’occasion de la
diversification de ses activités en Chine. Cette pratique est par
ailleurs déjà installée puisque les acheteurs du groupe en visite
en Chine ont pris l’habitude de communiquer avec
l’organisation durant leur séjour par le biais de webcams et
d’ordinateurs accédant à l’internet haut débit. Ce n’est pas ici
la recherche d’une « téléprésence » qui justifie précisément
que l’échange se fasse par « webcommunication » mais plutôt
la nature de la mission des acheteurs qui porte souvent sur des
problèmes techniques et pour lesquels le contact visuel est
nécessaire. Ils peuvent en effet présenter à leur hiérarchie de
nouveaux produits susceptibles d’être fabriqués et
commercialisés par le groupe via leurs webcams. Ce n’est
donc pas la nécessité de l’image projetée ou reçue des
personnes qui est mise en avant ici mais plutôt celle des
produits. En effet, une forme de communication tournant
autour de l’objet et de sa monstration semble s’imposer à
l’interaction visiophonique professionnelle et devrait être
explorée à l’avenir. L’intérêt du visiophone pour cette
communication-produit a déjà été souligné dans le cadre
d’échanges de particuliers à professionnels (commerçants ou
administratifs) où “on ne visiophone pas pour se montrer mais
pour voir ou pour exhiber un objet” (Jauréguiberry, 1989 : 95).
De plus, le net parallèle fait dans le discours de notre
interviewé entre l’utilisation des webcams dans l’entreprise et
l’ouverture au marché chinois invite également à se poser la
question du rôle de l’interculturel dans le choix de cette
technologie à distance. N’y a-t-il pas ici une sorte
d’acculturation
technologique
au
modernisme
communicationnel chinois ?
85
86
Quelles interactions corporelles ?
Dans la suite de cette recherche, dans le cadre d’une
approche centrée sur les usages il est prévu d’interviewer des
utilisateurs de T-PIS sans oublier d’interviewer des nonutilisateurs. Ces derniers seront choisis bien évidemment
parmi les salariés qui potentiellement sont susceptibles d’être
des utilisateurs du fait de leur activité et de leur équipement
informatique habituel de travail (Favoriser par exemple les
cadres distants géographiquement par rapport au personnel
d’exécution non équipé en T-PIS au sein de la production)
pour cerner au mieux les postures de résistance si elles
existent. De même, des personnels demandeurs de matériels en
T-PIS (exemple : webcam) et travaillant dans des unités
éclatées géographiquement distantes pourront être questionnés
sur la nature et les motivations de leur demande.
La pratique réelle de T-PIS sera observée et filmée sur site
dans une démarche s’inspirant de l’anthropologie visuelle en
tant que discipline du sensible (De France, 1998). Des
matériaux uniques pourront ainsi être récupérés et décryptés.
Une des ambitions consiste à catégoriser un certain nombre de
postures corporelles repérées à plusieurs reprises sans en
formuler des interprétations. Ce repérage dans un premier
temps ne serait que de nature descriptive dans la logique d’un
refus d’une sémiotique du corps (Caune, 2000). A partir d’une
grille
d’analyse
d’inspiration
sémiotique
et
phénoménologique, les matériaux iconiques et sonores seraient
ensuite traités. Dans la tradition phénoménologique , la
question sur le comment « being-in-the- world » se pose et
donc du comment « être dans l’entreprise », la place du corps
étant centrale dans les problématiques de l’entreprise (Casey
2000 : 65). Ce traitement s’appuyant également sur le
repérage des interactions doit permettre d’obtenir des résultats
à différents niveaux : visées supposées du personnel ; rituel
avec reproduction des postures corporelles ; ordre systématisé
des postures ; création symbolique d’un nouveau lieu de
travail ; gestion des apparences par des conventions ;
modalités corporelles de l’interaction à distance et sur la face
(Goffman) ; développement de compétences interactionnelles
nouvelles ; etc.
Une part de la captation d’images et de sons serait doublée
d’une seconde captation en simultané pour les autres locuteurs
distants. Les entretiens semi-directifs seront effectués à
distance en utilisant également une technologie de T-PIS qui
devraient faciliter le dialogue entre chercheur et usager. Le
partage des T-PIS (chercheur / usager) apporte des éléments
nouveaux dans la connaissance des modalités d’usage. Ce
partage est considéré comme une implication de nature
anthropologique pour le chercheur dans le milieu de l’observé
avec les effets productifs attendus de cette approche
méthodologique (Hine, 2000). Ces outils complémentaires
répondent ainsi à un des principes de la « virtual
ethnography » (Hine, 2000) qui considère que le seul face à
face n’est pas la seule forme d’interaction à être prise en
compte. De plus, le chercheur peut continuer son travail qu’il
soit absent ou présent. Se dégage une forme « virtuelle » de
permanence du chercheur dans le champ considéré même en
cas d’absence de celui-ci. Les limites méthodologiques ne
seront pas éludées malgré le caractère indispensable de
l’observation in situ des situations d’utilisations des T-PIS. Le
questionnement sur la représentativité des données recueillies
se doit d’être permanent
Lépine, 2005).
(Guyot, Bouillon, Durampart,
Références
Cardon, D. Smoreda, Z. Beaudoin, V. (2005). Sociabilités et
entrelacement des médias, texte inédit, Paris, Laboratoire SUSI,
France Telecom R αD.
Cardon, D. de la Vega, J. Licoppe, C. Pujalte, A. (1999). Les usages
de la visiocommunication : de la téléréunion à la coopération, L’écho
des recherches n °173.
Casey, C. (2000). Sociology Sensing the Body : Revitalizing a
Dissociative Discourse. In
Hassard, J. Holliday, R. Willmott. H. (Eds.), Body and organization,
London : Sage Publications
Caune, J. (2002). Tout vient du corps. in Actes du Colloque
Médiations du corps, Grenoble : Université Stendhal (http://w3.ugrenoble3.fr/les_enjeux/2002/Caune/index.php).
Chabert, G. (2005). Les usages du cartable électronique par les
familles, Actes du Colloque international EUTIC « Enjeux et usages
des TIC » aspects sociaux et culturels, Bordeaux, 22-24 septembre
2005, tome2, pp 245-253.
Denis, J. Licoppe, C.(2005). La coprésence équipée : usages de la
messagerie instantanée en entreprise, in Bidet, A. Borzeix, T.Pillon,
G. Rot, F. Vatin (eds), Sociologie du travail et activité, Toulouse
Octarés (à paraître).
De Fornel, M. (1994). Le cadre interactionnel de l’échange
visiophonique, Réseaux n°64, De CNET, pp 107-132.
De France, C. (1998). Cinéma et anthropologie, Maison des sciences
de l’Homme, Paris
Flichy, P. (2005). Comment étudier l’usage des TIC ?, conférence
plénière, Colloque international Enjeux et Usages des T.I.C (EUTIC) :
aspects sociaux et culturels, Bordeaux 3.
Guyot B., Bouillon, J-L. Durampart, M. Lépine, V. (2005). Méthodes
et techniques de recueil de données : le cas d’un outil de gestion de
projets in Méthodologies et techniques de recueil des données en
communication organisationnelle, Journées d’études Org & Co,
SFSIC, 23-24 mai
Hine, C. (2000). Virtual Ethnography, Sage publications, London
Hine, C. (Edited by). (2005). Virtual methods. Issues in Social
Research on the Internet, Berg, Oxford-New York.
Ibanez Bueno, J. (2006). Création d’un hypermédia virtuel et
ethnologique. L’exemple d’une recherche sur les internautes suisses et
français in Du cinéma ethnographique à l’anthropologie visuelle :
bilan, nouvelles technologies, nouveaux terrains, nouveaux langages,
Colloque
International :
Vingt-cinquième
bilan
du
film
ethnographique, Musée de l’Homme, Paris.
Jankowski, N. W. (1999). In Search of Methodological Innovation in
New Media Research, Communications: The European Journal of
Communication Research,24(3): 367-374.
Jauréguiberry, F. (1989). Usages domestiques du visiophone, TIS, vol
2, n°2.
Lamizet, B. (2001). le miroir social des institutions. Théorie de la
construction de l’espace médiaté des organisations in Paul-Cavallier,
M., Walter, J., L’Harmattan, Paris, pp. 271-282
Le Moenne, C. (2003). Quelle conception de la communication
interne à l’heure de la dislocation spatio-temporelle des entreprises ?
in Société Française des Sciences de l’Information et de la
Communication, Groupe Org & Co, Bulletin, Octobre 2003, pp. 4-24
Olivesi, S. (2002). La communication au travail, Presses
Universitaires de Grenoble, Grenoble.
Perriault, J. (1989). la logique de l’usage -Essais sur les machines à
communiquer, Paris, Flammarion, 253 p.
Proulx, S. (2005). Penser les usages des TIC aujourd’hui : enjeuxmodèles-tendances , conférence plénière, colloque international
Enjeux et Usages des T.I.C (EUTIC) : aspects sociaux et culturels,
Bordeaux 3, septembre 2005, tome1, pp 7-20.
Weissberg, J.L. (1999). Présences à distance – déplacement virtuel et
réseaux numériques, L’harmattan Communication, 303 p.
86
87
De l’informatisation des processus au travail informationnel en miettes.
Isabelle Bazet,
LERASS et CERTOP UMR 5044 CNRS, Université de Toulouse III.
[email protected]
Les travaux récents visant à ré-explorer la notion de
système d’information n’ont pas fondamentalement transformé
la perspective des définitions premières (Roux, 2004).
Cependant, ils interrogent fort utilement les translations
sémantiques venues des champs professionnels, en premier
lieu ceux des professionnels de l’informatique, qui ont
87
88
progressivement érodé la notion, et fait que le chercheur se
doit de reconstruire cette catégorie, comme celles
d’information et de communication, « de son point de vue
comme des concepts circonscrits » (Floris, 2004).
La nécessité du travail sur ces notions se fait d’autant plus
sentir que les phénomènes en cause connaissent des
transformations profondes, à travers un processus de
rationalisation et la recherche d’une interchangeabilité des
processus informationnels et communicationnels. Cette
évolution passe notamment par le déploiement des ERP44
(Enterprise Resource Planning) et interroge sur « la forme de
médiatisation des processus de travail » (Cotte, 2005) mais
aussi sur les formes de régulation qui interviennent. Durant
trois années, nous avons suivi de manière discontinue les
acteurs projet d’un grand groupe internationalisé devant
implémenter ce type de dispositif (25 entretiens) et nous avons
parallèlement réalisé des entretiens intensifs avec des
consultants (10 entretiens). Notre objectif était en croisant ces
deux « ancrages » de s’écarter de la singularité de la situation
industrielle envisagée et de pouvoir ainsi interroger les
promesses de l’outil, relayées par les méthodologies
d’accompagnement, issues du domaine du consulting. En
somme, ce que nous souhaitons interroger dans un premier
temps c’est la fabrique standard de l’information ou encore ce
qui relève de l’informatisation des processus, en établissant
que s’opère à cette occasion « une rationalisation cognitive »,
(Bouillon, 2004 ; Cotte, 2005). Nous nous proposons de
revenir sur ces éléments à la fois au travers du croisement des
recherches sur les ERP et à la fois à l’aune de nos propres
résultats.45 Dans un premier temps nous reviendrons sur les
questions que posent ces technologies du point de vue de
l’organisation. Il s’agira comme nous le propose Guyot (2002)
de saisir la rationalisation qui s’opère en « revenant sur les
recherches sur l’activité de travail et de système d’information
en les resituant dans un contexte en évolution ». Ensuite, nous
reviendrons sur l’association récurrente entre processus et ERP
pour interroger la dimension normative de ces dispositifs et
des méthodologies qui l’accompagnent. Nous nous
intéresserons enfin à la dimension politique de tels dispositifs.
Questions posées par les ERP : dispersion ou intégration
organisationnelle ?
Pourquoi les ERP ont-ils retenu l’attention des
chercheurs ? La raison peut-être à rechercher dans le fait que
ce sont des systèmes qui intègrent des formes d’actions
différentes, qui modifient toutes les composantes de l’activité,
rapprochent l’information de la décision, bouleversent les
modes d’organisation fondés sur la hiérarchie. Ces
technologies remettent en cause des frontières antérieurement
établies et considérées comme infranchissables.
Premièrement, on assiste à une généralisation des
technologies d’accompagnement de la coopération qui
touchent tous les univers professionnels : entreprises et
administrations voient leur processus recodés et harmonisés
sur un schéma standard. Deuxièmement, les processus
coopératifs qui définissaient jusqu’à présent la limite de toute
modélisation vont en devenir la matière première : l’implicite
44
Ces dispositifs logiciels apparaissent aussi sous la dénomination de Progiciels
de Gestion Intégrés (PGI).
45
Une partie des éléments avancés dans cette communication s’appuie sur les
formalisations proposées dans le cadre d’un ouvrage collectif et résultant d’une
réflexion interdisciplinaire sur la question des ERP, notamment. Ces échanges se
sont déroulés dans le cadre du programme « Société de l’information » du CNRS
et associaient des chercheurs issus des Sciences de l’Information et de la
communication, de la sociologie, des sciences de gestion, et des sciences pour
l’ingénieur.
Terssac de, G., Bazet, I., Rapp, L., (Coordination), 2006, Rationalisations des
activités dans les entreprises : le cas des technologies coopératives, Coll. Le
travail en débats, Editions Octarès, Toulouse (sous presse)
dans les transactions sera décrit, le non-dit ou le dissimulé
dans les échanges sera explicité, l’intime et ce qui est « à soi »
dans la coopération fera l’objet d’une formalisation portée sur
la place publique. Troisièmement, le principe hiérarchique qui
divisait le fonctionnement des univers organisés se voit
remplacé par une coopération synchrone. Les frontières
internes entre fonctions, services et bureaux sont abolies,
comme si tout d’un coup les cloisons tombaient, donnant à
voir une équivalence des fonctionnalités ; la paye, les achats,
la gestion financière, la fabrication, la gestion des hommes
sont énoncés dans un langage unique comme des processus
comparables, alors qu’on avait fait, par exemple, de la gestion
des hommes et des machines deux réalités incommensurables.
Quatrièmement, les frontières de l’organisation professionnelle
et de son environnement sont revues au profit d’une
redistribution des compétences et des attributions des
différents acteurs : l’actionnaire, le dirigeant, le client et le
salarié sont mis bout à bout ou face à face, alors qu’ils étaient
cantonnés dans des univers séparés ; on assiste à une extension
des échanges et des communications entre niveaux de décision
(global-local), à une synchronisation accrue des agendas, à une
intégration de données hétérogènes ; les territoires spécifiques
de compétences et d’attributions sont remis en question.
Définition des processus et « procès » de mise en oeuvre
Le Dictionnaire historique de la langue française (Rey,
1998) circonscrit l’apparition du terme processus dans le
domaine de l’anatomie au sens de « prolongement d’un
organe, d’une structure, d’un tissu ». L’idée de continuité est
donc dans un premier sens associée à celle de processus. Les
extensions de sens attribueront par la suite une dimension
« qualitative » au terme de processus puisqu’il sera doté du
sens abstrait de « progrès, développement » plus
particulièrement dans le domaine des sciences (philosophie,
sciences humaines, psychologie et psychiatrie et dans les
sciences exactes).
Ensuite, concurrençant procès, il est passé dans l’usage
courant en parlant d’un ensemble de phénomènes se déroulant
dans le même ordre. La spécialisation plus technique de
« suite ordonnée d’opérations aboutissant à un résultat »
(1926, processus de fabrication) empiète sur l’aire de l’emploi
de procédure. Les empiètements relevés dans cette définition
entre processus, procès et procédure jouent aussi de la même
proximité, voir même de la synonymie, dans les propos de nos
interlocuteurs.
Lorsque l’on franchit un pas supplémentaire et que l’on
s’intéresse à la littérature proposée par les consultants, on
obtient quelques éléments sur ce que « recouvrent » ces
processus. Ainsi Tomas (2002) décline les processus en deux
éléments distincts, d’un côté les processus élémentaires, et
d’un autre côté les processus opérationnels. L’auteur explique
« qu’afin d’être configuré sur l’ERP, chaque processus
opérationnel majeur de l’entreprise doit être décomposé.
Cette décomposition se trouve nécessaire afin d’identifier les
composants – appelés processus élémentaires – qui,
assemblés les uns aux autres, constitueront ses processus
majeurs. » L’auteur précise que « le même processus
élémentaire peut apparaître dans la composition de plusieurs
processus majeurs. Exemple de processus élémentaires :
création automatique des ordres d’achat, création de données
marketing d’un client » (p. 300). Ce que révèle d’emblée cette
large définition d’un processus élémentaire c’est qu’elle repose
sur une logique de « top down » puisqu’il s’agit bien de se
plier – au sens de mise au pli – à la logique de l’ERP pour que
les processus puissent se loger dans le design de l’outil
(Alsène, 1994). Ajoutons que si les effets d’articulation entre
processus sont pointés dans cette définition, nous n’apprenons
que peu de choses sur la nature exacte desdits processus.
88
89
Penchons-nous maintenant, sur ce qui relève des processus
opérationnels. Ils regroupent « l’ensemble des activités plus ou
moins large exécuté dans l’entreprise afin de pouvoir offrir le
service ou le produit commandé par un client. ( …) Un
processus opérationnel peut appartenir à une unité
opérationnelle ou bien traverser plusieurs unités
opérationnelles. Exemple de processus opérationnels
majeurs : commande client allant de la cotation à la
facturation, ordre d’achat fournisseur allant de la demande
de cotation au paiement » (p. 300). Ce que l’on comprend au
travers de ces définitions, c’est que le processus est envisagé
comme un chaînage d’action, de briques informationnelles
qu’il s’agit d’identifier et d’emboîter. Mais quid dans cette
définition de ce qui relève des contextes dans lesquels
l’information est produite et des savoirs mobilisés par les
acteurs pour se faire ?
Valérie Botta-Genoulaz (et alii, 2005 ; 2006) nous propose
une définition constitutive d’une première facette des ERP .
Cette technologie informatique modulaire et intégrative
requiert une re-conception des processus traduite dans un
référentiel unique, c’est « une application informatique
paramétrable, modulaire, intégrée et ouverte, qui vise à
fédérer et à optimiser les processus de gestion de l’entreprise
en proposant un référentiel unique et en s’appuyant sur des
règles de gestion standard ».
Retenons que la première facette de cette technologie est
d’être fondée sur une modélisation de la réalité au cours de
laquelle on recodifie toute la gestion de l’entreprise sous forme
de processus traduits dans un référentiel permettant d’édicter
des règles standard. Ce système d’information unifié ne
représente pas seulement la dimension cognitive de cette
technologie, mais aussi sa dimension normative, puisque le
référentiel sert à élaborer des principes d’action et des règles.
La première facette de cette technologie renvoie à la
dimension cognitive, qui se présente comme un système
d’information unifié prétendu cohérent avec les pratiques en
vigueur.
Les ERP se présentent comme des logiciels dont la
signification n’est pas unilatérale, puisqu’ils combinent deux
tendances contradictoires, comme le montre V. BottaGenoulaz, la cohérence et la rigidité. À l’origine, l’auteur
montre qu’il s’agit pour les entreprises d’harmoniser et
d’intégrer une pluralité de flux informationnels hétérogènes.
En effet, les ERP ont pour objet de résoudre un problème,
celui de la communication éclatée qui rend la coordination
difficile ; il s’agit donc d’assurer une fluidité informationnelle
entre toutes les composantes d’une entreprise, mais aussi avec
les acteurs de leur environnement afin de diminuer les coûts de
transaction et de maîtriser les dépenses. Ces logiciels reposent
sur un système d’élaboration, de traitement, de transmission et
de stockage d’informations, qui combine des données
commerciales, de production, financières et des données de
gestion des ressources humaines. On l’aura compris, les
divisions de l’entreprise sont remises en cause, sous
l’influence de cette informatique de groupe qui repose sur une
base de données unique, qui fait des données individuelles une
ressource collective.
De plus, l’auteur nous rappelle l’existence d’un « lignage
technologique » ou l’existence d’une « parentèle » entre
technologies qui s’emboîtent pour donner lieu à une
génération qui ambitionne de gérer toutes les composantes des
entreprises. Selon l’auteur, les prémisses étaient annoncés par
les logiciels de planification MRP II (Material Requirement
Planing) qui calculaient les besoins en composants de chaque
entité, incluant la gestion des ressources matérielles et
humaines : la voie était ouverte pour l’intégration des
processus, ce que la société SAP comprendra aisément ; de
plus, la notion de CIM (Computer Integrated Manufacturing)
fait alors son apparition dans les années 80, qui sera prolongée
dans les années 90 par la notion de processus. La relation avec
le client devient essentielle et génère de nouvelles applications
type CRM (Customer Relationship Management). Assiste-t-on
à une optimisation effective des processus telle que les
concepteurs l’ont imaginée ou bien s’enfonce-t-on dans une
réalité imaginaire ? Dans cette phase d’identification des
processus, les entreprises font souvent appel à des expertises
extérieures à savoir celle de consultants. Comment se régule ce
jeu de l’altérité ?
La main passe : la redistribution de l’initiative
Dans l’élaboration de ce nouveau mode de pilotage des
entreprises et des administrations, la phase d’analyse, de
reconception des processus, de prototypage nécessite le
recours à des consultants pour assurer la coordination de
différents spécialistes et apporter une contribution dont on
évalue à 25% le coût de leur intervention. La connaissance de
l’organisation est élaborée par le consultant et entre ses mains,
ainsi que la maîtrise des délais : le client ne va-t-il pas
dépendre du consultant et le consultant ne va-t-il pas tirer
avantage de son expertise pour imposer ses choix ?
Thine (2006) attire notre attention sur cette autre facette
cachée de la dimension politique des ERP : les relations entre
les protagonistes (clients et consultants) sont des relations de
pouvoir et chacun tente de les tirer à son avantage. En effet,
pour des raisons de compétences et de temps, les entreprises
ont recours à des consultants pour implanter ces logiciels :
« Les consultants vendent des outils qu’ils présentent comme
indispensables et se vendent eux-mêmes comme modes
d’emploi indissociables de ces produits ». Analysant le cas
d’un ERP implanté à dans une grande entreprise du secteur de
l’énergie, il montre que progressivement la relation du client à
son fournisseur va s’inverser et le pouvoir de décision et de
contrôle va en partie échapper au client, pour passer dans les
mains de la société de service. Les consultants voient leur
importance grandir et le client voit sa position s’affaiblir,
quand il n’est pas « marginalisé », comme le dira l’un des
consultants.
Certes, il ne s’agit pas d’un « coup d’état », puisque ce
glissement du pouvoir se traduit par une redistribution du
pouvoir d’initiative mutuellement consentie ou tolérée. D’une
part, les clients perdent le contrôle des décisions techniques et
d’autre part, les clients s’engagent à fournir les informations et
les méthodes au consultant au bon moment, à former les futurs
utilisateurs et surtout à faire en sorte que le projet soit accepté
par les cadres et par les salariés.
Le pilotage passe des mains du client à la société de
service et si l’on retrouve les différents protagonistes identifiés
précédemment (key-user46 et pilote), c’est bien leur relation qui
change, ce que montre clairement Thine (ibid) : « Pour le chef
de projet ERP d’une de ces directions, la société de conseil
pilote et réalise, alors que le client relaie en interne et est
subordonné à la société de conseil. Le chef de projet a donc
un rôle d’animation morale par la recherche de l’adhésion
des utilisateurs et réalise les conditions qui rendront possible
le bon déroulement du projet pour le consultant ».
Au total, ce qui est structurant ici, ce n’est pas ce qui est
stabilisé, mais ce qui change : ce n’est pas l’outil qui est
l’occasion pour les consultants de stabiliser un référentiel,
mais le changement des sources d’initiatives et de pouvoir qui
passent de main en main. Aux consultants le soin de mettre en
place une solution qui marche et donc une solution efficace, au
client le soin de faire que la solution soit acceptable et donc
réponde au critère de légitimité ; en revanche les deux ont en
charge d’anticiper sur le devenir de l’entreprise en fournissant
46
Key-user ou utilisateur clef : ces utilisateurs ont pour « rôle » de tester les
différentes versions de l’outil avant son implémentation.
89
90
à ses dirigeants les outils de management du changement de
statut de l’entreprise. Le registre des dépendances externes
identifié ici, interroge en retour un autre versant de la
dimension politique à savoir celui du redoublement du
contrôle pesant sur les individus à des fins stratégiques.
L’utopie du continuum : la dimension politique
L’idée que l’approche par processus ne se traduit pas
mécaniquement par une intégration de ces processus se
retrouve dans nos précédents travaux (Bazet, Mayère, 2006).
En effet, à l’occasion de la recherche menée auprès de
consultants et visant à comprendre l’outillage managérial
associé à de telles implantations, nous montrons de quelle
manière les processus peuvent êtres couplés ou découplés
selon la rationalisation visée, ici ce que les consultants
nomment la valeur ajoutée. Nous entrons dès lors dans la
dimension politique de l’outil qui sert de support aux
décisions d’intégration ou d’exclusion de processus et qui
constitue l’une des facettes de cette technologie.
Suivons le cas de la gestion des personnels ou celui de la
paie, que l’on cherche à optimiser à l’aide d’un ERP et de ses
deux modules qui poursuivent ce que nous avons appelé « le
lignage technologique » : d’un côté le BPR (le Business
Process Re-ingénierie) sert à codifier les activités et à les
cartographier en processus et d’un autre côté le BPO (Business
Process Outsourcing) sert à décider de l’externalisation de
certaines activités, en fonction de la valeur ajoutée à
l’entreprise.
Premièrement, nous considérons que l’outil est enfermé
dans une conception fonctionnaliste : la fonction de niveau
supérieur ou agrégée (le global) commande et dirige la
fonction de niveau inférieur ou détaillé (le local). Dans cette
perspective, « on postule en somme que les ordres
d’information requis par le global “conviennent” au pilotage
local », en niant que le processus d’échanges et de
communications est lié à la singularité des situations, requiert
de l’interprétation, se propage par allers et retours et non de
manière séquentielle. Deuxièmement, cette manière de voir
« organiciste » conduit les consultants à égaliser les processus
en les mettant sur le même pied d’égalité: cette égalisation
s’accompagne d’une « métrise » du processus de gestion des
ressources humaines, mais cette mise en calcul n’assure en
aucune manière la « maîtrise effective » du processus. D’un
côté, l’information au travers des ERP doit exister en ellemême, comme ressource mobilisable à chaque étape avec la
fiabilité requise ; et d’un autre côté, la complexité des
organisations, leur « tension » à force de flux tendus et de
fonctionnement économe les rendent particulièrement
vulnérables aux aléas. L’élimination de toutes les redondances,
y compris informationnelles, pour réduire les coûts, rend
l’organisation d’autant plus vulnérable que son personnel n’est
plus nécessairement à même d’assurer la permanence. Cette
approche occulte la question de la formation du sens. Ainsi
parmi les avatars recensés, évoquons celui de l’externalisation
de la gestion des ressources humaines, estimé standard.
L’entreprise à décidé initialement d’externaliser la gestion des
ressources humaines plutôt que de laisser un responsable du
personnel pour réguler les dysfonctionnements dans les
processus coopératifs qui relèvent des différends entre les
humains ; mais dans le cas de la paie, l’entreprise a décidé de
réintégrer la gestion de ses activités et se retrouve confrontée à
un problème juridique pour définir qui est le propriétaire des
données : l’ancien sous-traitant ou le nouveau ?
En
conclusion,
il
nous
semble
que
le
entre information et organisation mérite d’être questionné.
En effet, il nous semble que cette nouvelle génération de
technologie peut être interprétée comme une « technologie
d’organisation ». D’abord, parce que cette technologie n’est
pas uniquement technique puisque sa matière première touche
les relations entre les personnes et qu’il s’agit de les ré-agencer
sous l’impulsion du dogme de « l’efficacité ». En ce sens cette
technologie requiert une formalisation des interactions, une
explicitation des savoirs collectifs qui se forment et qui
circulent au sein de collectifs, d’une traçabilité des contacts,
d’une analyse des formes d’échanges et de coopération.
Ensuite, la conception de cette technologie est singulière : il ne
s’agit pas d’implanter un logiciel en formant les utilisateurs, ni
même d’analyser une réalité pour concevoir un outil dédié à
cette situation, encore moins d’ajouter un outil supplémentaire,
mais bien d’optimiser les interactions entre systèmes, entre
acteurs, entre niveaux de décision, entre intérieur et extérieur.
C’est en ce sens un « méta-outil » qui va jusqu’à mettre en
discussion la notion d’entreprise, entendue comme lieu
d’initiatives ou la notion d’organisation productive structurée
au travers du paradigme hiérarchique. Enfin, c’est une
technologie d’organisation qui remet en cause l’ordre structuré
qui efface d’un trait les construits antérieurs, propose une
vision différente de la réalité.
Bien entendu, cette technologie ne fonctionne pas seule et
ne se propulse pas d’elle-même : elle s’incruste dans l’ordre
établi par des acteurs qui la soutiennent et entrent parfois en
conflit avec les acteurs locaux ; elle propose une vision
hétéronome, homogénéisée et intégrée de l’entreprise, mais
n’arrive pas pour autant à annuler les autres visions de
l’entreprise. Elle prétend résoudre les incohérences, mais
introduit des rigidités.
Bibliographie
Bazet I., Mayère A., 2006. « Rationalisations des activités dans les
entreprises : le cas des technologies coopératives, Terssac de, G.,
Bazet, I., Rapp, L., (Coordination), Coll. Le travail en débats, Editions
Octarès, Toulouse (sous presse).
Botta-Genoulaz V., Millet PA., Grabot B., 2005. « A survey on the
recent research literature on ERP systems », Computers in industry,
Elsevier, Amsterdam.
Botta-Genoulaz V., 2006. « Rationalisations des activités dans les
entreprises : le cas des technologies coopératives, Terssac de, G.,
Bazet, I., Rapp, L., (Coordination), Coll. Le travail en débats, Editions
Octarès, Toulouse (sous presse).
Bouillon JL., 2005, « Autonomie professionnelle et rationalisation
cognitive : les paradoxes dissimulés des organisations postdisciplinaires », Etudes et Communications, n° 28, pp 91-105.
Coninck de, F., 1995. Travail intégré. Société éclatée, Coll. Le
sociologue, PUF, Paris.
Gaulejac de, V., 2005. La société malade de la gestion. Idéologie
gestionnaire, pouvoir managérial et harcèlement social, Editions du
Seuil, Paris.
Guyot, B., 2002. « Mettre en ordre les activités d’information,
nouvelle
forme
de
rationalisation
organisationnelle »,
http://w3.ugrenoble3.fr/les_enjeux/2002/Guyot/index.php
Tomas, JL., 2002. ERP et progiciels de gestion intégrés. Séléction,
déploiement et utilisation opérationnelle. Les bases du SCM et du
CRM, Coll. InfoPro, Dunod, Paris.
Thine S., 2004. « L'espace du conseil sous l'effet des ERP », Le mythe
de l'organisation intégrée - Les progiciels de gestion, Segrestin D.,
Trompette P., Darréon JL., (coord.), Sciences de la société, n° 61,
PUM, Toulouse.
Thine S., 2006. « Rationalisations des activités dans les entreprises :
le cas des technologies coopératives, Terssac de, G., Bazet, I., Rapp,
L., (Coordination), Coll. Le travail en débats, Editions Octarès,
Toulouse (sous presse).
rapport
90
91
Les communautés littéraires : de l’organisation apprenante à l’intelligence collective.
Brigitte CHAPELAIN
CRIS SERIES / Université Paris 10
[email protected]
91
92
« On appelle « intelligence collective » la capacité des
collectivités humaines de coopérer sur le plan intellectuel pour
créer, innover, inventer »47.
S ‘interroger sur les pratiques d’intelligence collective
dans les communautés littéraires en ligne ne relève pas d’une
vision techniciste de la création et de la culture Il s’agit de
prendre en compte des phénomènes organisationnels et
cognitifs qui se développent de plus en plus dans notre société
grâce à des modes de communication interactifs, collectifs et
décentralisés.Le champ littéraire n’échappe pas à cette
évolution.Ignorer ces pratiques et ne pas réinterroger les
modalités de leur morphogénèse ,sous prétexte qu’elles n’ont
rien à voir avec le champ littéraire traditionnel, peut conduire à
deux excès dans l’analyse culturelle de l’ère des réseaux :
penser qu’on puisse analyser de nouveaux phénomènes avec
des critères anciens et qu’en matière de culture, et plus
particulièrement de littérature, les nouveaux outils d’écriture et
de lecture provoquent des ruptures avec la tradition.
Nous nous appuyons en particulier sur les travaux de la
FING, sur les théories constructivistes de l’apprentissage et sur
les recherches menées dans le domaine de la CMO
(communication médiatisée par ordinateur). Dans des travaux
antérieurs48 nous avons utilisé les concepts de communautés de
pratique de Wenger et d’organisation apprenante pour analyser
et caractériser certaines de ces communautés. La
problématique de l’intelligence collective nous parait
pertinente pour aborder d’autres dimensions propres à ces
communautés et renforcer un cadre théorique en construction
qui
permettrait
de
mieux
cerner
les
formes
communicationnelles et organisationnelles ainsi que les
activités cognitives qui les constituent .
Avant d’analyser ces manifestations d’intelligence
collective en observant plus spécialement des communautés de
pratique comme certains blogs d’écrivains, nous rappellerons
l’évolution du concept de communauté littéraire et certaines
catégories que nous avons distinguées.
À quelles émergences assistons-nous d’un point de vue
organisationnel : émergences de rôles, de conduites, de normes
et de logiques d’apprentissage49 ? Quelles représentations et
quels statuts de l’auteur, du lecteur ,de l’œuvre, de l’écriture et
de la littérature développent ces pratiques? Quelles incidences
les nouvelles formes organisationnelles et les nouvelles
inscriptions communicationnelles de la littérature exercentelles sur le contexte culturel actuel et de quelles manières sontelles partie prenante de cette culture de la virtualité réelle dont
parle Castells ? Telles sont les questions auxquelles nous
essaierons de répondre.
1.Communautés littéraires en ligne.
partageant un but commun et des activités en coopération sur
les réseaux. Pour S.Proulx51 la virtualité doit être utilisée
comme une catégorie qui permet de repenser le lien social.
Dans le sillage de la CMO52, on constate que le développement
des pratiques d’écriture sur le réseau fait émerger un
phénomène de renouveau communautaire (Castells, 2002)
Pour André Lemos53, les communautés virtuelles
fonctionneraient comme toute communauté autour d’un
projet: mais celui-ci introduit la technique dans la culture; la
proximité y’est caractérisée par une territorialité symbolique et
l’engagement s’appuie sur un intérêt commun ponctuel. Le
terme virtuel, trop souvent présenté comme l’inverse de réel,
s’est éloigné de la signification philosophique classique qui
signifie en puissance. Chez Deleuze, par exemple,le virtuel ne
s’oppose pas au réel, mais il est dans la recherche de son
actualisation. Plus généralement les membres de communautés
virtuelles ne se contentent pas de communiquer, mais de
conduire une demarche qualifiante:“de participer à la
réalisation collective d’une démarche pour l’atteinte d’un but
commun”54.
Serge Proulx et Lazlo Toth55 ont remis en perspective
l’évolution de la notion de communauté virtuelle en
distinguant trois périodes. Les années soixante-dix voient
éclore dans une ambiance de contre-culture l’utopie des « on
line communities », dont l’idée et l’appellation reviennent à
Licklider et à Taylor : “Ce seront des communautés reposant
non pas sur une localisation commune, mais sur un intérêt
commun... »56. Pour ces deux innovateurs il s’agit d’une
communication productive et du bonheur de parvenir à des
interactions souhaitées. À la fin des années quatre-vingt-un, se
manifeste une vision « désenchantée » et méfiante des
communautés virtuelles, comme celle d’une partie de la
communication sur Internet, dont on souligne les dangers
éthiques, idéologiques et économiques. Pendant les années
quatre-vingt-dix domine une conception organisationnelle des
communautés, en particulier celles relevant du e-learning, de
la consultance et du commerce électronique.
1.2.L’organisation apprenante et la communauté de
pratiques.
C’est à cette époque que d’un modèle rigide émerge une
organisation en processus et en mutation qui s’appuie sur des
systèmes techniques. L’importance de la gestion des
connaissances et de l’intelligence économique dans le
management vont donner aux collectifs professionnels, aux
savoirs
et
aux
resssources
une
importance
accrue.L’apprentissage organisationnel désigne des dispositifs
qui favorisent le développement de l’apprentissage collectif au
profit de l’apprentissage individuel rejoignant en cela les
51
Les communautés littéraires construisent-elles du lien social? Colloque
International “L’organisation media.. Dispositifs médiatiques, sémiotiques et de
médiations de l’organisation”, Université Jean Moulin , Lyon, 19-20 Novembre
2004.
52
1.1.Évolution du concept de communautés virtuelles.
Le terme de communauté virtuelle50 s’est imposé à partir
de la fin des années 80 pour désigner des groupes sociaux
47
Dossier
collective
glossaire
http://www.autrans. crao.net/index.-php/intelligence
48
B.Chapelain , Les communautés littéraires comme organisations apprenantes,
in Communiquer virtuelles : penser et agir en réseau , S.Proulx, L.Poissant,
M.Senecal (dir), PUQ, Septembre 2006.
49
B.Chapelain,« Internet : coexistence des courants classiques et de nouvelles
logiques d’apprentissage » in Formation des salariés : quels choix pédagogiques
aujourd’hui ?, Actualité de la formation permanente, Juillet-Août 2004, n°191 .
50
On emploie aussi les termes de communauté en ligne ou de e-communautés.
Communication médiatisée par ordinateur.
53
André Lémos, “Les communautés virtuelles”, Sociétés n°45 in J.F.Marcotte ,
Résumé
des
Communautés
virtuelles
d’André
Lemos,
http://jfm.ovh.org/communautes virtuelles/theorique.html.
54
France Henri,Béatrice Pudelko, La recherché sur la communauté asynchrone in
Les communautés délocalisées d’enseignants, A. Daele, B.Charlier (Coord),
PNER,http://www1.msh-paris.fr
55
“Communautés virtuelles? Nécessité d’une clarification conceptuelle” in Actes
du collooue Communautés virtuelles.Penser et agir en réseau, Novembre 2003,
www.comvirtu.uqam.ca
56
“The computer as a communication” in Device , sciences and technology,Avril
1968 cité par Alexandre Serres, “Regard sur les origines des communautés
virtuelle:les communautés en ligne et le temps partagé;un exemple d’hybride
socio-technique”, Colloque Écritures en ligne et communautés, Université de
Rennes 2, Septembre 2002.
92
93
théories socio-constructivistes.L’idée d’une organisation
qualifiante ou apprenante “forme organisationnelle permettant
à ses membres de se qualifier (d’apprendre) en permanence”57
fait son chemin, et peut être transposée dans l’analyse des
commmunautés virtuelles, comme les communautés littéraires,
en prenant en compte leurs activités et les savoirs en jeu. En
effet qu’il s’agisse de communautés d’écriture collaborative ou
collective (poésie, roman, journal intime, nouvelles…)
réinventant des processus peu connus d’écriture, de sites
d’information, et de documentation scientifique donnant accés
à des archives et à l’actualité de la litterature ou encore des
blogs littéraires offrant de nouvelles formes d’interactivité et
de contenus , et plus particulièrement les blogs d’auteur
réinventant la discussion et le journalisme littéraire sont bien
des formes organisationnelles qui permettent à chacun des
membres en interaction avec des outils et d’autres membres de
mettre en commun leurs compétences pour créer de nouveaux
savoirs et savoir faires dans le domaine. Nous retrouvons dans
ces différentes formes de communauté les deux aspects d’une
organisation apprenante : “une organisation qui apprend et une
organisation qui encourage l’apprentissage de ses membres” 58
L’apprentissage organisationnel est une des dimensions de
la réflexion que Wenger59 développe sur les communautés de
pratique.Pour Wenger le théoricien des communautés de
pratique trois dimensions caractérisent les communautés:
l’engagement mutuel, le répertoire partagé et l’entreprise
commune qui est le résultat d’un processus collectif de
négociation.
Le concept de communautés de pratiques appliqué aux
communautés littéraires qu’elles soient des communautés
d’écriture, de discussion ou des communautés d’information et
de documentation littéraires en facilite l’analyse et la
compréhension. L’engagement mutuel représente “la
complémentarité des compétences” et “la capacité des
individus à relier efficacement leurs connaissances avec celles
des autres”60. “Ici peu import que l’on soit normalien , prof,
toubib ou taulard ou femme au foyer , ce qui compte , c’est ce
que l’on écrit” écrit Anne à Lise qui vient de rentrer dans la
liste d’écriture yahoogroupes61 . Dans les communautés
littéraires qu’il s’agisse d’écrire collectivement, de participer à
un blog d’écrivains ou encore de consulter Fabula.org les
membres s’investissent avec des compétences différentes
(culturelles, créatives , cognitives et techniques ).
L’entreprise commune est bien plus que l’objectif fixé au
départ elle comprend aussi les régles qui sont négociées en
permanence par le collectif. La liste de discussion LITOR62 qui
se donne pour objectif “de réfléchir collectivement aux usages,
avantages, incconvénients, et expériences de l’ordinateur dans
le cadre des études littéraires” montre qu’elle doit fonctionner
par les échanges de ses membres.63
Le répertoire partagé est la troisième dimension d’une
communauté de pratiques; il s’agit d’un certain nombre de
réferences, d’outils et symbôles que les membres partagent et
construisent en commun et qui est mobilisable à tout moment.
Le répertoire partagé se développe et évolue au cours du
57
François Beaujolin , Vers une organisation apprenante, Éditions Liaisons,
2001.
58
Handy, 1989 cité in Daniel Belet, Devenir une entreprise apprenante , Les
meilleures pratiques, Éditions de l’organisation , 2003.
59
E.W enger, Communities of Practice : The key to a Knowledge Strategy in
Knowledg directions, vol 1, Fall, 1999.
60
E.Soulier, Les communautés de pratique pour la gestion des connaissances, In
management des connaissances en entreprise, Imed Boughzala, Jean Louis
Hermine, Hermés Science 2004.
61
[email protected]
62
Liste de discussion francophone sur les études littéraires et l’ordinateur.
63
Un grand nombre de listes peut être cité :Dramatica, Mélusine, Dix Neuf.
temps. Ainsi les membres de la liste “Lire” de
Yahoosgroupes”64 sont réunis sur une large conviction que “la
lecture c’est la moitié de la culture.”
1.3.Figures de communautés littéraires.
En partant des communautés de pratique on peut
distinguer d’autres figures de communautés en fonction du
projet, du degré de collectivité dans les tâches et des
répertoires partagés.
Les communautés d’intérêt s’investissent davantage dans
l’échange d’analyses autour de livres et d’écrivains, que dans
la relation aux autres membres et les solutions recherchées
sont plus personnelles que collectives.65
La communauté d’intérêt intelligente “se crée dans un
contexte spécifique pour répondre à un besoin ciblé , pour
résoudre un problème particulier, pour définir ou réaliser un
projet.”66Sa durée est temporaire. Au printemps 2003, devant
la décision de l’état de ne pas racheter l’héritage d’André
Breton, une communauté littéraire de circonstance s’est
constituée sur Internet. Celle-ci rassemblait des membres
différents: gens de lettres, artistes, enseignants, et amateurs de
surréalisme. Cette communauté s’affichait comme militante:
elle voulait obliger l’état à créer une fondation où l’héritage
Breton aurait été conservé à la portée du public et des
chercheurs ;par ses méthodes, ses actions, et certains de ses
propos elle témoignait ou prolongeait l’esprit surréaliste.
Très vite une pétition a circulé sur Internet. Chaque nom
était intégré à la liste de diffusion. La communauté se
construisait autour de celle-ci en rendant compte au jour le
jour de chaque événement nouveau : articles, manifestations,
textes, déclarations de personnalités, démarches, lettres…
François Bon et Mathieu Bénézet, qui ont pris la tête de
l’initiative, ont ainsi permis à des individus reliés uniquement
par le réseau, de soutenir un engagement , en lisant et en
échangeant des mails pendant quelques semaines pour
sauvegarder un patrimoine littéraire, et artistique.
Bien sûr,l’État n’a pas cédé, mais il a été considérablement
gêné par ce mouvement. Ce phénomène a montré que le réseau
permettait une mobilisation quasi immédiate de citoyens de
culture et de continents différents autour du devenir d’œuvres
d’art, et d’une cause aussi désuète, semblait-il, que celle du
surréalisme.
Les communautés d’apprentissage se développent dans des
créations collectives, comme des romans collectifs ou des
ateliers d’écriture, dont certaines peuvent être menées dans un
contexte
scolaire67.
Bruner68
souligne
que
c’est
l’externalisation en œuvres collectives qui aident à construire
une communauté, et à constituer des modes de pensée partagés
et négociés. Dans ces pratiques concrètes on retrouve des
étapes de l’apprentissage issu des théories constructivistes,
comme le conflit socio-cognitif et l’apprentisssage coopératif
où la convergence des savoirs du collectif interfèrent avec
ceux de l’individu et créent de nouvelles représentations et de
nouveaux savoirs. Chaque année,sous le patronage de France
Télécom Education, sept romans virtuels collaboratifs sont
écrits en plusieurs langues par des élèves de dix-huit pays
différents. Cette expérience rend bien compte des activités
d’une communauté d’apprentissage, et elle traduit les
64
65
fr.groups.yahoo.com
Jean Benoît,Des objectifs
2000,www.tact.fse.ulaval.ca
communs,
des
valeurs
partagées,
66
France Henri, Béatrice Pudelko , La recherche sur la communauté asynchrone
in Les communautés délocalisées d’enseignants, A. Daele, B.Charlier (Coord),
PNER, http://www1.msh-paris.fr
67
L’exemple le plus récent et le plus abouti est l’atelier d’écriture en ligne de
François Bon sur le thème de la mer. Actu.remue.net.atelier
68
Jérôme Bruner, L’éducation entrée dans la culture, Retz, 1996.
93
94
conceptions précises de l’apprentissage qui la fondent :
apprentissage collaboratif et pédagogie de projet. Histoires
virtuelles 2003 développe des communautés d’apprentissage
où l’exercice de l’écriture va de pair avec l’apprentissage de la
communauté.Isabelle Rieusset -Lemarié69 considère que les
Simulations globales sont des communautés éducatives
fondées sur la pratique de la mimesis. « L’œuvre n’est pas tant
le roman écrit que l’expérience même de cette communauté
d’écriture où les personnages en interaction sont en train de
tisser une fiction. ».
La liste d’écritures Yahoo groupes est un autre exemple de
communauté d’apprentissage collectif.L’écriture représente
l’intérêt principal et permet l’établissement d’un lien social.
Un théme d’écriture est lancé chaque semaine : chacun écrit
individuellement et soumet son texte aux autres membres qui
émettent des critiques positives ou négatives étayées
d’arguments; des textes sont aussi écrits collectivement.C’est
par l’écriture que les membres de la liste se perçoivent et
apprennent à se connaître : « J’aime beaucoup faire un petit
tour dans ton monde où le soleil te regarde de son œil violet,
les arbres papotent, les fleurs s’alanguissent….. (Anna à
Bozena) .Lire l’autre renvoie à sa propre créativité : « Ton
chant donne envie de chanter, Tous mes doigts m’en
démangent,Je vais écrire »(Francis à Anna) .
L’organisation apprenante, ou qualifiante, est une forme
organisationnelle qui permet à ses membres de se qualifier,
d’apprendre, d’apprendre à apprendre et de développer des
capacités d’innovation et de créativité. Elle se traduit par une
réflexion sur les modes d’organisation et les procédures de
travail. Les diverses communautés littéraires que nous venons
d’analyser tendent vers cette forme organisationnelle car,
qu’elles soient documentaires, ou poïétiques, elles relèvent
d’une volonté de partage et de développement des
connaissances et de la création, et de structures de gestion qui
atténuent les marques de hiérarchie.
2.L’intelligence collective.
2.1.Évolution du concept.
L’intelligence collective et les communautés ont en
commun le fait qu’elles sont à la fois un mythe et un concept.
« On appelle ,intelligence collective la capacité humaine
de coopérer sur le plan intellectuel pour créer innover,
inventer. Dans la mesure où notre société devient de plus en
plus dépendante du savoir, cette faculté collective prend une
importance fondamentale. »Telle est la définition posée par le
groupe intelligence collective de la FING lors de sa mise en
place. L’intelligence collective est un concept travaillé depuis
une quarantaine d’années70. Dans un article intitulé « Le jeu de
l’intelligence collective » Pierre Lévy 71 désigne l’intelligence
collective humaine techniquement augmentée comme un
nouveau champ de recherche interdisciplinaire. Projetant de
fabriquer un logiciel JIC72 à l’intention des communautés pour
leur permettre de mieux évaluer leur intelligence collective et
leur fonctionnement, P.Levy distingue sur le plan de la
69
La médiation de la mimesis dans l’expérience éducative d’une communauté
virtuelle, Colloque Écritures en ligne et communautés, Université de Rennes 2,
Septembre 2002.
pragmatique quatre sous-réseaux constituant l’intelligence
collective d’une communauté : d’abord « un réseau de
personnes » constituant le capital social de la communauté qui
représente la qualité des relations qui lient entre eux les
membres ; « un réseau d’infrastructures physiques et
techniques » constituant le capital technique et relevant de la
pertinence des liens et de la performance technique; un réseau
de documentation et d’archives, constituant le capital culturel
de la communauté ; et un capital intellectuel qui est le résultat
des trois précédents alors que ceux-ci sont les moteurs de son
activité. P.Lévy décompose le capital intellectuel en trois
puissances : la puissance réflexive désigne les représentations
et la mémoire de la communauté ; la puissance de décision est
constituée par « les principes abstraits et critères » qui
conduisent les activités de la communauté ; la puissance
pratique comprend « le réseau des compétences, savoir-faire
et connaissances procédurales » qui nourrissent les pratiques
de ces communautés.
C’est bien sous l’angle pragmatique que nous nous
interrogerons les pratiques d’intelligence collective des
communautés littéraires.
J.M Penalva73 propose quatre approches de l’intelligence
collective : l’approche communicationnelle puisqu’il s’agit de
dispositifs sociaux techniques qui permettent de construire du
sens et de dynamiser les connaissances ; une approche socio
organisationnelle que les formes d’organisation, de règles et
d’enjeux appellent et enfin une approche de la cognition
sociale que représentent la co-construction des savoirs et
l’utilisation de connaissances et références communes.
Pour J.M .Penalva74 l’intelligence collective est une
hypothèse portant sur la capacité d’un collectif à fabriquer de
l’organisation et de la connaissance et dont le résultat sera plus
performant que celle additionnée de l’ensemble des membres.
En effet les interactions qui se développent au sein des
différents capitaux définis par P.Lévy produisent de la plusvalue . J.M.Penalva75 à propos de l’intelligence collective
distingue trois processus : « les processus cognitifs »
d’apprentissage, de représentation, de décision , « les
processus sociaux » de partage, d’échange , de négociation et
d’auto organisation, ainsi que « de processus relationnels »
(ou de socialisation) de reconnaissance , de compétition et
d’implication qui évalueront les capacités de ces collectifs à
contribuer à une plue value cognitive et créatrice.
Nous allons affiner l’analyse de certaines communautés
littéraires en reprenant les dimensions de l’intelligence
collective proposées par P.Levy et J.M.Penalva et voir en quoi
celles-ci nous permettent de mieux comprendre le
fonctionnement, la dynamique et les activités cognitives qui
les constituent .
2.2.L’intelligence collective dans les blogs d’écrivains?
En s’appuyant sur les quatre distinctions de Pierre Lévy (
capital social, capital technique , capital culturel et capital
intellectuel ) examinons de plus prés un type de communautés
de pratique que sont les blogs d’écrivains .
Les blogs d’écrivains français apparus sur le web à partir
de 2004 sont beaucoup moins nombreux que ceux des
73
70
Ce concept peut être décliné successivement : Noosphère de Teilhard de
Chardin, Écologie de l’esprit de Gregory Bateson, Écologie des représentations
de Dan Sperber , Sujet collectif de Michel Serres, Cybionte de Joël de Rosnay,
Hive Mind de Kevin Kelly, Intelligence connective de Derrick de Kerkchove,
Super brain de H.Bloom, intelligence émergente de Steven Johhnson.Qu’est-ce
que l’intelligence collective ? Philippe Durance (Coordination), Internet actu
-Fing- Inist/CNRS
L’intelligence collective, http://a-com.com/paper/penalva ,mais aussi Typologie
du travail collaboratif.
Variations autour des collectifs en action in Intelligence collective Rencontres
2006, Collection sciences économiques et sociales,Éd Mines Paris Les Presses,
Paris 2006.
74
Le jeu de l’intelligence collective in Sociétés, Revue des sciences humaines et
sociales, N°79, 2003/1, Réseaux, communautés, Identités, Ed De Boëck.
L’intelligence collective, http://a-com.com/paper/penalva ,mais aussi Typologie
du travail collaboratif.
Variations autour des collectifs en action in Intelligence collective Rencontres
2006, Collection sciences économiques et sociales,Éd Mines Paris Les Presses,
Paris 2006.
72
75
71
Jeu de l’intelligence collective
http://a-com.com/paper/penalva
94
95
journalistes qui prolifèrent, des managers, des entreprises ou
ceux en augmentation des hommes politiques.Nous nous
appuierons sur six d’entre eux 76. Le blog de Pierre Assouline
la République des livres est sans conteste le blog d’écrivain le
plus fréquenté et le plus connu dans la blogosphère littéraire .
Fondé en Octobre 2004 Pierre Assouline comptait le 3 Août
2004 son trente millième commentaire de blogueur après 655
billets écrits de sa main .L’écrivain rappelle que des
commentateurs républicains et lettrés enrichissent ce blog
« d’informations originales, de précisions excentriques,
d’humour décalé ,d’analyses pertinentes , de culture
spécifique, perspectives inattendues, voire même de leur
délire » . Ce mélange désigné de savoirs, de réflexion et de
comportements personnels résume assez les pratiques de ces
blogs littéraires.
Le capital social tel que le définit Pierre Lévy concerne ici
les membres de ces blogs ou commentateurs ainsi que la
qualité des relations établies entre eux. L’intérêt et la passion
pour la littérature et la lecture guident l’intervention et
l’appartenance à un blog. Plus que des communautés d’intérêt
intelligente, il s’agit de communautés de pratiques.
L’ensemble des membres de ces blogs sont des amateurs
avisés, voire des spécialistes de la littérature. Beaucoup
d’enseignants, d’étudiants, quelques écrivains
et des
spécialistes, mais aussi des lecteurs cultivés souvent
francophones et européens, comme nous l’indique cette
réflexion d’un bloggeur 77 : « Je n’écris pas de thèse , je ne
suis qu’un vulgaire liseur de Proust et des autres, vulgaire au
sens latin du terme, en bref, je ne suis pas un professionnel, et
pourtant comme une péripatéticienne fait la Rue St Denis ,
j’arpente le trottoir de la littérature ». Les membres peuvent
appartenir à des cultures étrangères comme les africains
francophones qui interviennent dans le blog de l’écrivain
d’origine congolaise Alain Mabanctou,ou encore les
commentateurs et les référents souvent anglophones de Tatiana
de Rosnay. L’écriture assidue des billets et le nombre de
commentaires traduit souvent une forme de dynamique de ces
blogs. Celui de Pierre Assouline en est un très bon exemple.
Le week-end du 15 Août après un billet de l’auteur portant sur
la révélation de Günter Grass lors de la parution de son
autobiographie de son engagement dans la Waffen SS, en trois
jours 200 commentaires réagissent sur le blog de la
République des livres, et le débat en écho a des
retentissements moindres, mais non négligeables sur d’autres
blogs écrits parfois par des commentateurs s’étant déjà
exprimé sur celui de Pierre Assouline. Les membres des blogs
observés sont pour une majorité d’entre eux en interaction et
en réciprocité, non pas seulement parce que comme nous le
verrons par la suite il y’a échanges de savoirs et débats , mais
parce que se développent entre eux une certaine qualité de
communication que traduisent des relations vivantes,
studieuses et parfois militantes : attention aux propos de
l’autre, rapidité des réponses, interjections , exclamations ,
pointes d’humour , expression d’agressivité, excuses et mises
au point. Comme l’écrit Pierre Assouline78 : « Sur un blog
plus qu’ailleurs le commentaire est là pour rappeler comment
ne pas le taire ! » .Certains membres sont fidèles à plusieurs
sites 79: ils font alors référence aux discussions ou aux débats
qui ont lieu dans l’autre site.
En ce qui concerne le capital technique c’est à dire les
infrastructures technologiques, leur performance et la
76
Alain Mabanckou www.congopage;com ,Irène Delse www.irenedelse.com ,
Pierre Assouline passouline .blog.lemonde.fr , Denis Robert
www.ladominationdumonde.blogspot.com , Tatiane de Rosnay
www.yansor.blogs.psychologies.com , Philippe Sollers lalitterature.blogspot.com
77
Mateus 17/08/06 22H04 Blog de P.Assouline
78
3 Août 2006
79
Sites Assouline, Mabanckou, Tatiana de Rosnay.
pertinence des liens, il faut tenir compte de la spécificité de
l’outil Blog qu’on ne peut comparer à des sites ou des wikis.
Sur les six blogs observés cinq utilisent réellement la
technologie du weblog80 : liens, système de syndication avec
un format RSS qui permet aux personnes abonnés au fil du
carnet une lecture immédiate, moteurs de recherche. Des
moteurs de recherche interne ne sont présents que sur le blog
d’Irene Delse et sur celui de P.Assouline « pour retrouver des
notes perdues ». Les moteurs de recherche des autres blogs ne
servent qu’à donner d’autres adresses sur la plateforme
utilisée.
Les rubriques de chacun d’entre eux sont
communes :présentation de l’auteur et de l’œuvre avec parfois
quelques complaisances narcissiques, photos , billets à l’usage
unique du blog et liens sur les commentaires, archives parfois
classées par catégories, commentaires récents, quelques
annonces publicitaires concernant leur maison d’édition et
leur production littéraire et des annonces Google, liens avec
d’autres sites d’écrivains , sites littéraires, blogs littéraires. Le
plus complet dans sa liste de liens est celui de Tatiana de
Rosnay qui signale de nombreux sites avec des catégories plus
subjectives81. Des liens assez fréquents sont exploités dans les
billets d’Irene Delse et de Tatiana de Rosnay offrant aux
lecteurs de riches encyclopédies.
Le capital culturel concerne la documentation et les
archives qui sont en accès et qui constituent les activités
présentes et passées, c’est- à- dire essentiellement les textes
écrits par l’auteur du blog et les bloggeurs : billets et
commentaires. Les blogs de Tatiana de Rosnay et d’Irene
Delse se présentent d’une certaine façon comme les plus
documentés car de nombreux liens sont établis dans leurs
textes consacrés pour l’une à la lecture d’ouvrages
francophones et anglophones , et pour l’autre à la science
fiction et à la fantaisie ainsi qu’aux événements portant sur ces
deux genres. Le capital culturel mis en accès et en débat peut
se distinguer entre les catégories suivantes :
- l’actualité littéraire informe sur les livres , les écrivains et
les questions du moment ;
- les savoirs littéraires variés et imposants portent sur la
littérature mondiale , francophone et anglophone, traitant
autant de la littérature de ville que d’une analyse de la beauté
noire chez Baudelaire ou encore d’ écrivains marginaux ou
laissés dans l’ombre;
- la connaissance et le travail sur la littérature témoignent
d’une réflexion et d’une argumentation souvent érudites sur
des questions littéraires comme les genres, les éditions
critiques et les dictionnaires ;
- la controverse littéraire désigne les discussions suivies et
contradictoires sur une question : il peut s’agir de controverses
sur des écrivains surmédiatisés, mais aussi de controverses
plus confidentielles comme la place des jurés noirs dans les
prix littéraires, ou encore de controverses relevant de l’histoire
littéraire;
- la critique d’une certaine vision de la littérature se
développe dans tous les blogs : les commentateurs rejettent
une littérature « «gallimardeuse » , franco-française, et
narcissique sans hésiter à remettre en question certaines
réactions des écrivains responsables de blogs qui ne sont pas
toujours de bons exemples dans ce domaine ;
- certaines problématiques de la littérature parmi lesquelles
l’écriture et son rapport avec la langue d’origine, l’engagement
et la littérature ,les rapports de la littérature et du politique .
Pour Pierre Lévy le capital intellectuel, résultante des trois
capitaux précédemment définis, qui est développé dans
l’intelligence collective se traduit par des capacités pratiques et
80
Le blog de Philipe Sollers reproduit ses billets écrits chaque semaine pour le
journal du Dimanche.
81
Accro, Mes collègues, Dépendance sérieuse, Sites préférés.
95
96
réflexives.Nous venons de voir que les blogs d’écrivains
étudiés en sont constitués. La multiplicité des points de vue,
l’échange des savoirs et la mutualisation des différentes
procédures d’argumentation forment ainsi une construction
collective actualisée des ressources et des apprentissages
littéraires qui produit pour le blogeur ou l’observateur une
plue value d’intelligence. La puissance de décision de ces
communautés fait également partie du capital intellectuel.
Certains blogs d’écrivains ont été créé parfois pour des motifs
publicitaires ou d’ « extimité » : il n’en demeure pas moins
que d’autres comme celui de P.Assouline sont animés et
pratiquent une vision exigeante de la littérature, sans être
pédante et associée à des positions politiques affirmées.Ces
blogs82 dépendent aussi de la notoriété de leurs auteurs et de
l’importance et de la régularité du travail qu’ils y consacrent :
en ce sens la hiérarchie perdure dans ce type d’organisation.
www.orgnet
C.Héber-Suffrin, Les savoirs , la réciprocité et le citoyen,
Desclée de Brouwer, 1998.
France Henri, Béatrice Pudelko , La recherche sur la
communauté asynchrone in Les communautés délocalisées
d’enseignants,
A. Daele, B.Charlier (Coord), PNER,
http://www1.msh-paris.fr
P.Levy, L’intelligence collective , Pour une anthropologie du
cyberespace, La Découverte , Paris 1994.
P.Levy, Qu’est-ce que le virtuel ?, La Découverte, Paris 1995.
J.M.Penalva(Coor), Intelligence collective Rencontres 2006,
Ed Mines Paris Les presses, 2006.
C.Szylar, L’apprentissage dans les organisations, Ed
Hermés/Lavoisier, 2006.
Réseaux, communautés, Identités, Sociétés, Revue des
sciences humaines et sociales, N°79, 2003/1, Ed De Boëck.
Conclusion
Les blogs d’écrivains que nous avons analysés présentent
bien des formes d’organisation sociale et cognitive qui
relèvent de l’intelligence collective, même si leur
fonctionnement demeure assez vertical puisque les écrivains
choisissent les sujets de leurs commentaires et en assurent la
rédaction.Pourtant la participation active à ces blogs ou leur
lecture attentive produit une plue value de communication, de
réflexion et de connaissance dans le domaine littéraire.
L’approche de l’intelligence collective permet de mieux
comprendre ce qui relève du social, du communicationnel et
du cognitif dans ces blogs et d’en voir les limites.D’autres
analyses restent à faire dans ce sens pour d’autres catégories de
communautés littéraires .L’intelligence collective place cellesci dans la perspective d’une intelligence de réseau englobant
plus largement l’art et la culture sur Internet.
Rheingold dés 1993 avançait la thèse de la reconquête du
social par les communautés ; on pourrait s’interroger sur une
reconquête de la culture littéraire par l’offre d’Internet. À
l’heure où la presse généraliste réduit les pages littéraires à des
articles qui ressemblent le plus souvent à des compte rendus de
lecture ou à des interviews promotionnels, où la télévision
propose des émissions dont le concept n’a guère changé depuis
cinquante ans et où la radio reste marquée par un ton érudit et
universitaire et parfois fortement parisien, ces blogs d’auteurs
ainsi que d’autres communautés réinventent la conversation et
le débat littéraire : des citoyens prennent le temps dans des
interactions et des relations virtuelles animées de constituer un
collectif qui va développer leurs connaissances et leurs
réflexions dans un domaine qu’ils privilégient ou qu’ils vont
appprendre à privilégier. Qui l’eut cru ? La littérature a tout à
gagner avec Internet .
Bibliographie de base :
N.Giroux , Le nouage des savoirs en organisation , 2004,
82
Assouline, Mabanctou,Tatiana de Rosnay
96
97
Les TIC, actants du changement organisationnel
Une approche discursive de la structuration des organisations
Benoit Cordelier
[email protected]
Mots clés :
changement organisationnel, approche discursive, projet, TIC, régulations
Le travail présenté dans cet article s’appuie sur une étude
menée dans le cadre d’une Convention Industrielle pour la
Formation et la Recherche, et porte sur les efforts de
réorganisation menés chez Marie Brizard & Roger
International. En 1999, cette entreprise a connu, en effet, une
grave crise financière et managériale qui a remis sérieusement
en cause la structure de l’entreprise familiale, et en particulier
le système et les méthodes de management. La mise en place
d’une nouvelle équipe dirigeante depuis 2001 a alors non
seulement permis d’affronter les nouveaux enjeux
commerciaux, mais également, et surtout, de réaliser des choix
organisationnels et des efforts de modernisation des systèmes
d’information afin d’échapper à une faillite annoncée.
La crise aura été à l’origine – c’est notre première hypothèse –
de ce postulat managérial selon lequel, devant la menace du
pire, les négociations sont plutôt favorables au changement :
c’est en tout cas ce sur quoi ce sont appuyés les dirigeants
pour faire valoir une stratégie de modernisation globale fondée
sur l’implantation de progiciels de gestion intégrés. Contraints
d’accepter une solution fonctionnelle très normative, les
salariés auront dû renoncer aux formes anciennes de leur
socialisation dans l’entreprise : des formes de coopération
basées sur la reconnaissance mutuelle et tacite de savoir-faire
professionnels et de compétences « métier ». Cette conception
du changement, basée sur les fonctionnalités de l’outil,
justifierait le recours au paradigme fonctionnaliste : de fait, la
technologie est conçue comme un système normatif, un acteur
« holiste », intégrant des fonctions de service, des instructions
de mise en œuvre, des normes de fonctionnement. Au postulat
de départ sur l’acceptation paradoxale (ou « contrainte »), il
faut ajouter maintenant l’hypothèse fonctionnaliste : le logiciel
et son système d’intégration « contient » la manière dont il doit
être implanté, mis en état de fonctionnement et utilisé. Il
« contient » surtout la manière dont ses utilisateurs vont devoir
coopérer, c’est-à-dire échanger des informations utiles dans
des structures d’interaction clairement modélisées. Ceci est
maintenant une évidence : la T.I.C. est conçue comme un
système programmé des meilleures pratiques en terme
d’opérations et de coopération, à la manière d’un schéma
actantiel susceptible de rendre compte d’un parcours narratif
dont le dénouement est programmé de manière à satisfaire les
souhaits du Destinateur. De quelle liberté d’interagir, de
communiquer, de construire, les salariés jouissent-ils dans ce
système global de prescriptions ? Quelles sont les modalités
communicationnelles
susceptibles
d’accompagner
le
changement ?
Les modalités communicationnelles du changement
La mise en œuvre du changement affecte les représentations
organisationnelles des acteurs à travers des processus
d’interactions sociales Comment se déroulent ces dernières ?
Nous nous proposons ici d’insister sur la dimension
communicationnelle de l’innovation et de son organisation
(Gramaccia, 2000 ; Giroux, 2000 ; Taylor et al. 2000 ; Taylor,
1993). Pourtant, nous sommes davantage habitués à lire ou
entendre des explications sur les deux pôles de l’innovation
organisationnelle que sont le changement construit et le
changement prescrit. Le premier serait le résultat d’une
impulsion de la base, alors que le second est imposé par les
dirigeants. Nous retrouvons bien ces deux modalités sur le
terrain, mais il serait superficiel de croire qu’elles s’excluent
mutuellement, même si l’une peut prendre le pas sur l’autre.
Dans le contexte de notre étude, nous avons constaté que les
interactions qui mènent au changement sont plus subtiles et
intègrent un troisième élément dans un modèle qui
comprendrait d’un côté une Direction polyphonique83 et de
l’autre les employés : le(s) système(s) d’information. Celui-ci
n’est en fait qu’un objet technique pouvant prendre diverses
formes dont la plus spectaculaire est ici le progiciel de gestion
(que ce soit Easysales/STAR ou, les différents modules de la
suite de business intelligence, Cognos)84. Le changement prend
forme dans notre cas grâce aux éléments communicationnels
que partagent, que s’échangent les acteurs autour du système
d’information qui va venir structurer l’organisation. Nous ne
soutenons pas que l’outil est à lui seul structurant, mais plutôt
que, au-delà du potentiel structurant qu’il représente, il
concentre les interactions entre acteurs qui vont formuler le
changement. Le système d’information est non seulement un
outil fonctionnel qui va permettre d’articuler les processus de
l’entreprise, mais il est également un enjeu pour les différents
acteurs dans la narration du changement, car il devient le
vecteur d’une vision organisationnelle et affecte par la même
les représentations organisationnelles et leur construction.
Nous sommes ici proche en fait de la distinction que fait
Orlikowski (1995) entre « technology as artifact » et
« technology-in-use »85 Le système d’information peut être
considéré soit comme un ensemble d’éléments physiques et/ou
conceptuels, soit comme la modélisation d’interactions situées
entre des acteurs et l’objet technique. Il est également
nécessaire de distinguer l’usage du système d’information
stabilisé et consensuel de son instrumentalisation visant
orienter la réalisation de la vision organisationnelle. Dans le
premier cas, il représente le résultat des négociations entre
acteurs pour stabiliser un mode de fonctionnement à partir de
la proposition normative de l’outil. Dans le deuxième cas,
certains acteurs, ici le dirigeant visionnaire, veulent se servir
de cette proposition normative pour orienter le changement
organisationnel ; ils ne confisquent pas forcément le débat qui
mène à la production du système, mais ils cherchent à en
réduire la portée.
Le changement est certes impulsé par les acteurs, mais il se
structure à travers le système techniques, les constitué de
l’objet technique et d’éléments organisationnels et
conceptuels, qui est l’enjeu des négociations entre acteurs.
L’objet technique est un support de communication en ce qu’il
concentre les débats aboutissant à la production du système en
action.86 En effet, lors de la mise en œuvre de l’innovation
organisationnelle, ce sont l’ensemble des acteurs qui
83
La Direction de Marie Brizard ne s’est pas présentée sous un front uni et tenant
un seul discours. Les consensus étaient davantage de circonstance plutôt que le
résultat d’un partage de convictions profondes. Des luttes de chefs influençaient
fortement l’orientation des actions de changement.
84
Logiciels utilisés par MBRI pour construire son système d’information et
structurer son activité.
85
W.J. Orlikowski, Action and artifact : the structuring of technology-in-use,
Sloan school of management, Working paper, 1995.
86
Nous préférons utiliser le terme de « système » à celui de « technologie », car
ce qui est en signifié dépasse la seule implantation d’un progiciel. Ce qui est
négocié, mis en place, comprend également les procédures organisationnelles et
les enjeux humains. L’expression « technologie » nous apparaît trop restrictive,
exclusive de la dimension organisationnelle et humaine.
97
98
structurent le changement autour du déploiement du système
d’information. Nous nous proposons donc ici d’explorer le
lien entre la nature avant tout communicationnelle du
changement et le rôle des acteurs et des outils qui jalonnent et
formalisent la production du système d’information. Les
approches classiques en théories des organisations tendent à
négliger le rôle de la communication des acteurs qui pourtant
participe de la structuration de l’organisation. L’approche
communicationnelle que nous trouvons notamment dans la
théorie des actes de langage (Gramaccia, 2001 ; Taylor, 1993)
remet la communication au centre de la dynamique de
changement.
Les limites des approches normatives du changement
La gestion du changement en entreprise est avant tout abordée
de manière normative et prescriptive. Les sciences de gestion
préemptent naturellement ce terrain et cherchent à y imposer
une logique d’opérationnalité. « En effet, la gestion a
longtemps été envisagée comme la recherche et la mise en
place de modèles universels pouvant répondre de manière
définitive aux problèmes de l'organisation. Dans cette
conception l'efficacité et la pérennité de l'entreprise sont
assurées par sa capacité à mettre en place un mode
d'organisation stable et définitif et non pas par sa capacité à
le modifier. »87 Les méthodologies proposées aux managers
ainsi que l’essentiel des recherches en sciences de gestion
abordent bien la communication dans leurs démarches. Mais, à
notre connaissance, elles l’envisagent avant tout d’un point de
vue instrumentalisant à travers des paradigmes fonctionnaliste,
déterministe ou, plus récemment, interprétatif.
L’approche fonctionnaliste nous propose une construction
téléologique du fonctionnement de l’organisation et par
conséquent de son changement. Le changement est décidé et
conduit par le dirigeant. L’encadrement intermédiaire est en
fait un outil de transmission de la volonté de ce dernier et, les
membres de l’organisation se soumettent à la vision proposée.
Le changement est donc prescrit, univoque. La communication
ne sert qu’à optimiser la diffusion, la mise en œuvre du
changement. Elle facilite la conformation des membres à
l’évolution de l’organisation.
La conception déterministe du changement organisationnel
met en avant la perception de facteurs externes, notamment
techniques. Le manager choisit alors une structure
organisationnelle adaptée aux stimuli environnementaux. Il est
le principal architecte de la construction de l’organisation et de
ses évolutions qu’il envisage sous un angle avant tout
technique. La dimension humaine, et par conséquent
communicationnelle, est occultée. La « ressource humaine »
n’est qu’une donnée du problème qu’il faut gérer.
L’approche interprétative considère l’organisation comme un
système de représentations construites à travers les interactions
des acteurs. Un processus de construction de sens fait émerger
une réalité sociale qui structure l’organisation. Le changement
organisationnel est ici un processus qui doit aboutir à la
redéfinition de ces représentations organisationnelles. La
communication entre membres permet la construction
collective des représentations. Le manager cherche alors à
l’influencer par des actions de communication. Le paradigme
interprétatif nous rapproche d’une conception émergentiste des
dynamiques organisationnelles.
La première critique que nous formaliserons à l’égard de ces
approches est qu’elles accordent une trop grande importance à
l’action du dirigeant et, que celui-ci est généralement
considéré comme étant seul avec une action univoque. La
place des autres acteurs y est en effet sous-estimée. De plus,
comme nous avons pu le constater dans notre cas, le dirigeant
n’est pas seul dans sa sphère. Celui qui est symboliquement
appelé « dirigeant », « manager », « leader », voit son pouvoir
limité dans l’entreprise par d’autres cadres dirigeants
concernés par la transversalité de l’action du changement
organisationnel. Le changement se fait à la fois avec
l’ensemble des acteurs subordonnés ainsi qu’avec les autres
dirigeants impliqués dans le processus de réorganisation.
Deuxièmement, ces approches ignorent l’utilisation des objets
techniques en tant qu’enjeux qui marquent les négociations du
changement. Dans notre cas, le système d’information doit être
envisagé comme un « système en action instrumentalisé ». Audelà de la normativité inhérente à un objet ou à un système
technique, le système en action devient un objet de négociation
dont la construction se fait par des échanges. Les traces en sont
les réunions de co-conception (réunions d’analyse, de
reengineering, de paramétrage,…) ainsi que les différents
documents qui créent un cartographie du projet (cahier des
charges fonctionnel et technique, rétroplanning, procédures
formalisées,…).
La troisième et dernière critique -peut-être la plus importante-,
que nous voulons adresser ici à ces approches que nous venons
de présenter très succinctement, concerne la façon d’aborder la
communication. Celle-ci y permet la diffusion du changement ;
elle aide les managers à vaincre la résistance au changement.
Elle y est donc périphérique au changement. Il nous semble
pourtant que son rôle est plus central. En cela nous suivons
des auteurs qui se rattachent à la théorie des actes de langage
et pour lesquels la parole structure l’action et l’organisation
(Taylor, 1993 ; Gramaccia, 2000 ; Giroux, 2000).
« L’hypothèse organisationnelle se dessine : l’organisation se
révèle dans la conversation ; elle prend forme dans la
progression dialogique, au fur et à mesure que les acteurs
statuent de façon contractuelle sur la validité des règles et du
succès (vs échec) de la transaction. J.M. Taylor définit la
notion de transaction comme
“une unité de communication qui comporte un échange de
valeurs d’une personne à une autre ; toute communication est
un système de création et de transmission de valeurs (et non
pas simplement de messages)”.
Cette idée est centrale dans la mesure où l’on considère que
la conversation, qui constitue le cadre dynamique de
l’échange, introduit, in situ, les conditions de la création ou
plus exactement, de la valorisation de l’objet (un objet
matériel, mais aussi bien de l’information) comme enjeu de
l’échange. D’où le recours, par notre auteur, à la théorie des
actes de langage de John Austin pour expliquer les
mécanismes de cette transmutation si, et c’est une condition
essentielle, selon la théorie, l’intention de réaliser un acte de
langage par le locuteur est reconnue et interprétée comme
telle par l’interlocuteur. »88
Les limites à l’appréhension du changement organisationnel
que nous constatons dans ces paradigmes proviennent de leur
conception limitée de la communication. Elle y est
essentiellement envisagée comme un paramètre du
changement. Au mieux, elle l’influence, mais plus
généralement c’est un élément sur lequel doit agir le dirigeant.
Cette conception instrumentale de la communication nous
semble être le résultat de la centralité des dirigeants dans ces
approches théoriques. L’envisager comme un processus de
diffusion ou tout au plus une interaction n’est pas suffisant
pour comprendre la dynamique qui se met en place. C’est
minimiser l’importance des subordonnés et ignorer celle des
objets et des systèmes techniques qui formalisent une
88
87
V. Perret, « La gestion du changement organisationnel : Articulation de
représentations ambivalentes », in : Actes de la 5ème Conférence Internationale
de management stratégique (AIMS), 1996.
G. Gramaccia, La communication dans les projets d’innovation - Perspectives
en communication organisationnelle, Note de synthèse pour l’Habilitation à
Diriger des Recherches, université de Bordeaux 3, 2000, pp. 185-186.
98
99
dimension transactionnelle du changement. Les acteurs
structurent, car ils participent (à différents degrés, certes) à une
négociation. La communication est le vecteur immatériel de
cette transaction. Les outils et les systèmes structurent, car ils
sont normatifs. Ils matérialisent la communication en tant que
développement et résultat d’une transaction. La performativité
de la communication se révèle dans la mise en place d’un
logiciel, par exemple. Elle s’appuie sur des objets techniques
pour trouver une formalisation et produire des systèmes. La
communication apparaît donc centrale dans la structuration des
organisations.
L’approche communicationnelle du changement
organisationnel
L’approche communicationnelle de l’organisation s’intéresse à
la construction collective de l’organisation. Elle peut donc
également être appliquée au changement organisationnel.
L’originalité de cette approche, développée par un groupe de
chercheurs canadiens autour de J.R. Taylor (avec notamment :
N. Giroux, C. Groleau, D. Robichaud, E. Van Every, F.
Cooren)89, est de nous présenter la structuration de
l’organisation à travers la communication en nous proposant
un
modèle
« discursif »
autour
d’une
dualité
texte/conversation. Cette approche nous intéresse au plus haut
point, car elle est compatible avec d’autres postures théoriques
issues notamment de l’individualisme méthodologiques et
propose également un effort d’intégration des différents
niveaux d’analyse de l’organisation (micro et macro). Elle va
ainsi nous permettre de développer un modèle intégratif du
changement organisationnel par le projet et les systèmes
d’information. Nous allons, dans un premier temps, présenter
l’approche communicationnelle pour, ensuite, montrer
comment s’y articulent les rôles des acteurs et des objets
techniques.
ouvert, être interprétable pour laisser un surplus de sens
(Weick, 1969)90. Dans le cas contraire, il étoufferait l’action
dans une logique dominante littéralement incontestable et
interdirait toute évolution, tout changement.
Il existe une tension entre ces deux modalités (Taylor et al.,
1996)91, puisque la conversation est évolutive et que le texte
cherche à fixer l’organisation. Le texte formalise et la
conversation actualise. Le passage de l’une à l’autre de ces
formes se fait à travers une conversation réflexive, ou
métaconversation (une conversation sur la conversation), dont
l’objet est la structuration de l’organisation, la formalisation de
son fonctionnement. Le texte y est alors produit par un
processus d’abstraction et de généralisation qui va permettre
d’aboutir à une modification des discours et de la cartographie
(règlement, procédures, organigramme hiérarchique, fiches
métier,…). Ces derniers vont alors redéfinir les représentations
organisationnelles. Mais auparavant, ces discours doivent
prendre la forme d’outils concrets servant de repères aux
acteurs du changement. Ces outils (cahier des charges
fonctionnel,
GANNT,
PERT,…)
vont
permettre
l’opérationnalisation de la vision managériale. Ils vont
participer à son transfert dans les représentations
organisationnelles en fixant un contenu et un calendrier des
transformations. Ils font partie d’une méthodologie de projet,
d’une grammaire organisationnelle du changement.
L’établissement de cette grammaire n’empêche pas pour autant
l’apparition d’antinomies et de conflits entre les différents
acteurs. Les spécificités du métier de chacun, son
positionnement hiérarchique, ses objectifs et les temporalités
qui en découlent créent des grilles de lecture différentes et par
conséquent des problèmes d’interprétation. Rédiger dans
l’absolu le texte de l’organisation idéale, c’est ignorer la réalité
des régulations et des médiations locales. C’est modifier les
arrangements particuliers qui facilitent la coopération des
acteurs. La réalisation du texte peut donc être rapidement
compromise car, soit il se heurte à la résistance des acteurs,
soit il produit une organisation formelle incompréhensible et
irréaliste. Le changement ne pourra alors être effectif, car la
textualisation ne sera pas en phase avec la conversation : trop
éloignée des nécessités ou des préoccupations des acteurs, elle
ne parviendra pas à devenir effective, à restructurer
l’organisation. Le texte ne parviendra pas alors à suivre le
processus d’opérationnalisation.
Le modèle discursif : une représentation constructiviste de
l’action collective
Le modèle proposé par J.R. Taylor évite les écueils à la fois
fonctionnaliste et interprétatif. Le fonctionnalisme présente en
effet l’organisation comme un ensemble structuré et figé ; et
l’approche interprétative conçoit l’organisation simplement
comme une construction sociale. Dans ce modèle,
l'organisation est conçue comme une communauté discursive
opérant selon deux modalités : le texte et la conversation.
La conversation correspond au fonctionnement informel de
l’organisation. Elle est éphémère et discontinue. Elle fait
La distribution des rôles dans l’action collective et
émerger le sens des interactions entre acteurs qui ajustent sans
l’apparition de l’actant TIC
cesse leurs comportements aux nouveaux éléments qui
Giroux (1996) se demande si le lieu de la textualisation est
interviennent dans la discussion. C’est non seulement un
différent de celui de l’opérationnalisation, si les modalités sont
processus relationnel qui co-oriente et ajuste les
différentes, avec des acteurs eux aussi différents. Dans notre
comportements, la discussion, au texte, mais c’est également
cas, nous constatons que la métaconversation se déroule dans
TEXTE
un processus innovant, créatif, qui participe à l’évolution du
le cadre du projet, selon les modalités du projet. Toutefois, le
texte. La conversation aide également à la construction
cycle en V adopté chez Marie Brizard Opérationnalisatio
ne nécessite pas
identitaire des membres de l’organisation et donc à
l’intervention de tous les acteurs impliqués dans le projet sur
n
l’établissement d’une culture, ainsi qu’au maintien des
l’ensemble des étapes du cycle. Ainsi, le dirigeant participe
relations de pouvoir.
essentiellement pour donner une impulsion. Il signifie
METACONVERSATION
Le texte en est donc la formalisation qui permet la
l’orientation générale du projet en communiquant sur sa
distanciation de l’acteur à l’organisation, l'extension de cette
vision. L’expression des besoins fonctionnels se fait avec un
dernière dans le temps et l'espace. Il est le résultat de
chef de projet fonctionnel (maîtrise d’ouvrage) et un ou
l’ensemble des conversations qui se déroulent dans la
plusieurs acteurs métier détachés ou pas pour le projet. Le chef
communauté discursive,Textualisation
dans l’organisation. Il donne les
de projet fonctionnel sert alors d’interface pour communiquer
règles de fonctionnement et oriente l’action, autrement dit, il
avec le chef de projet informatique (maîtrise d’œuvre) qui
est à la fois contrainte et opportunité (Giroux, 1996). Il
réalise la partie technique du projet. Des arbitrages auront lieu
cherche à donner un cadre et une orientation générale d’action CONVERSATION
en fonction des desideratas de la maîtrise d’ouvrage, des
à travers le temps. Il doit donc pour cela rester paradoxalement
90
89
Cf. J.R. Taylor, O. Laborde, « Communication et la constitution de
l’organisation : la perspective de “l’Ecole de de Montréal”, Bulletin de liaison, n°
16, Org&Co, juin 2006.
K. Weick, The Social Psychology of Organizing. Reading, MA : Addison
Westley, 1969.
91
J. R. Taylor et al., « The communicational basis of organization : between the
conversation and the text », Communication Theory, vol. 5, n°1, 1996.
99
100
capacités de la maîtrise d’œuvre et, de la structure même du
progiciel qui sera déployé. Les échanges se déroulent entre les
dirigeants visionnaires, la maîtrise d’ouvrage, la maîtrise
d’œuvre et le système d’information (ou système technique
selon la terminologie que nous adoptons). Si le système
technique ne peut pas tenir littéralement une conversation, il
interagit néanmoins avec les acteurs, en ce qu’il la modèle à
travers les contraintes normatives qu’il impose en tant que
support. Il participe à la structuration de l’organisation ; et s’il
n’est pas acteur, il peut néanmoins être considéré comme
« actant » au sens de la sémiotique Greimassienne : « Les
actants sont les êtres ou les choses qui, à un titre quelconque
et de quelque façon que ce soit, même au titre de simples
figurants et de la façon la plus passive participent au procès.
[…] Ainsi dans la phrase Alfred donne le livre à Charles,
Charles, et même le livre, bien qu’ils n’agissent pas euxmêmes, n’en sont pas moins des actants au même titre
qu’Alfred. » (Lucien Tesnière, 1959, Éléments de syntaxe
structurale, Paris, Klinksieck, p. 102) Le système technique
est donc une fonction syntaxique du discours du changement.
C’est un élément qui, s’il ne peut directement agir, est porteur
d’une force propositionnelle normative héritée de sa
conception. Nous ne souhaitons pas pour l’instant nous
engager plus avant dans ce rapprochement avec la sémiotique
narrative de Greimas. En effet, l’idée est ici de pouvoir établir
un objet technique comme un interlocuteur qui participe à la
métaconversation dans un modèle discursif de l’organisation.
Les relations entre les différents acteurs parties prenantes au
projet sont de fait fortement contractualisées. Les documents
qui servent à formaliser les projets et à communiquer entre les
Directions (métier et informatique) sont les mêmes que ceux
servant pour les prestataires extérieurs. Le geste symbolique
est fort : la communication n’est pas seulement une
interaction, elle est également un transaction.
Le chef de projet fonctionnel, appelé « process owner » chez
Marie Brizard, occupe un rôle primordial dans l’expression
des besoins des acteurs métiers. Il se pose à la fois comme
porte-parole, représentant de ses collègues opérationnels qui
vont recevoir l’outil et, comme un des garants du respect de la
vision managériale. Il a donc une double relation
transactionnelle forte à la fois avec les membres de
l’organisation qui vont devoir adopter le système technique et
avec le dirigeant visionnaire. Il a également une relation
transactionnelle plus faible avec les membres de la maîtrise
d’œuvre, puisqu’il leur doit coopération et assistance dans la
compréhension des caractéristiques fonctionnelles à
paramétrer. Il doit donc être capable à la fois
d’opérationnaliser et de textualiser, de diriger la
métaconversation. A ces fins, il doit pouvoir prendre la mesure
des contraintes matérielles, certes, et surtout fonctionnelles ou
normatives des outils qui servent à structurer la narration du
changement. Sans ça il ne pourra pas être l’interlocuteur,
l’intermédiaire, privilégié entre les acteurs humains et l’actant
technologique.
Bibliographie
Crozier M., Friedberg E., L’acteur et le système, Paris, Seuil,
1977.
Friedberg E., Le pouvoir et la règle, Paris, Seuil 1997.
Giroux N., La mise en œuvre discursive du changement,
working paper, Université de Montréal, 1996.
Gramaccia G., Les actes de langage dans les organisations,
Paris, L’Harmattan, 2001.
Jodelet D., « Représentation sociale : phénomènes, concept et
théorie, in : S. Moscovici (dir.), Psychologie sociale, Paris,
PUF, 2004 [1984].
Jodelet D. (dir.), Les représentations sociales, Paris, P.U.F.
1989.
Kerbrat-Orecchioni C., Les actes de langage dans le discours,
Paris, Armand Colin, 2005
Koenig G. et al., Le sens de l'action. Karl Weick :
sociopsychologie de l'organisation, Paris, Vuibert, 2003.
Orlikowski W.J., Action and artifact: the structuring of
technology-in-use, Sloan school of management, working
paper, 1995.
Pesqueux Y., Tribulois B., La dérive organisationnelle, Paris,
L’Harmattan, 2004.
Reboul A., Moeschler J., La pragmatique aujourd’hui, Paris,
Seuil 1998.
Reynaud J.-D., Les règles du jeu, Paris, Armand Colin, 1997.
Rowe F., « Cohérence, intégration informationnelle et
changement : esquisse d’un programme de recherche à partir
des Progiciels Intégrés de Gestion », Systèmes d'Information et
Management, vol.4, n°4, 1999.
Taylor J.R., « La dynamique de changement organisationnel.
Une théorie conversation/texte de la communication et ses
implications », in : Communication & Organisation n°3,
GREC/O, Université Michel de Montaigne - Bordeaux 3,
1993.
Taylor J.R., Laborde O., « Communication et la constitution
de l’organisation : la perspective de “l’Ecole de de
Montréal” », Bulletin de liaison, n°16, Org&Co, juin 2006.
Figure : D’après « Le modèle discursif de l'organisation »
(Giroux, 1996)
100
101
Logique documentaire et organisation d’entreprise, regards croisés depuis les SIC ?
Dominique Cotte
Laboratoire Geriico, Lille-3
[email protected]
Introduction.
L’utilisation de l’informatique dans les contextes de travail
s’est progressivement étendue des aspects les plus calculables
du procès de travail (informatique de gestion et de prodution)
à la quasi-totalité de l’activité, incluant à ce titre des actions
d’échange, de communication et de production documentaire.
Après la « bureautique communicante » des années 1990, une
nouvelle génération d’outils apparaît sous la forme des
intranets, portails d’entreprise et systèmes de gestion de
contenu. Au-delà de leur dénomination, qu’il importerait de
préciser, toutes ces applications ont en commun de chercher à
constituer un point d’entrée unique, un « bureau virtuel » qui
concentre toutes les manipulations que fait le salarié dans le
cadre de son activité quotidienne. C’est à partir de cette
vocation hégémonique de l’intranet ou du portail, considéré à
la fois comme lieu d’action et comme lieu d’accès aux
documents que nous menons une réflexion sur les interactions
entre les aspects documentaires et les aspects organisationnels.
Cette réflexion, dont on présentera ici les présupposés
méthodologiques et théoriques, a été nourrie par la conduite de
plusieurs missions auprès d’entreprises pour l’évaluation ou la
mise en œuvre de portails intranets. Menées pour un
organisme interprofessionnel, et un établissement public, ces
missions de terrain nous ont frappé dans ce qu’elles avaient de
commun comme problématiques autour de l’organisation
documentaire d’une part, mais aussi autour de la
représentation symbolique des organisations. C’est le
croisement entre ces deux aspects, dont nous pensons qu’il est
particulièrement fécond en termes de réflexion et de
problématique, que nous voudrions interroger ici.
Quelques préalables méthodologiques.
Il est convenu de désigner les SIC comme une pluri ou méta
discipline afin d’en mettre en évidence la richesse et la
multiplicité de points de vue. En même temps, il n’est pas
facile de « tenir » ensemble des approches qui peuvent se
révéler très différentes, de par leurs présupposés théoriques et
méthodologiques, mais aussi de par leurs objets d’étude. Nos
travaux s’intéressent, dans le cadre de collectifs de recherche
pluri disciplinaires92, aux « métamorphoses médiatiques »,
c’est-à-dire à la façon dont les objets du sens se transforment
en passant d’un cadre formel communicationnel à un autre.
Nous constatons, en observant l’évolution des « médias
informatisés » (Jeanneret, 2000) des phénomènes de brouillage
et de transferts dont une partie est liée à l’évolution
technologique et l’autre aux modifications des pratiques, les
deux phénomènes étant bien sûr interdépendants. Ce
brouillage rend mouvants les terrains de recherche spécialisés
en raison de la modification des contours même des objets de
l’analyse : un blog peut-il être étudié à partir des mêmes outils
et méthodes d’analyse qu’un journal par exemple, un journal
92
Un premier travail a donné lieu à la réalisation de l’ouvrage collectif « Lire,
écrire, récrire » (BPI, 2003) sous la direction d’Emmanuel Souchier, Yves
Jeanneret, Joëlle Le Marec. Un second travail a donné lieu à la livraison d’un
rapport final de recherche dans le cadre de l’ACI cognitique du programme
société de l’information, rapport intitulé « Métamorphoses médiatiques, pratiques
d’écriture et médiation des savoirs » (direction Yves Jeanneret).
en ligne comme un journal papier, une séquence vidéo tournée
sur un mobile comme un clip réalisé pour une chaîne du câble,
un site web comme une plaquette de communication, un écran
de base de données ou de portail comme un média ? Nous
pensons que cette difficulté n’en est une que dans la mesure où
on en reste à une conception verticaliste des études d’objets de
la communication, en respectant une logique de filière
médiatique, qui certes possède sa propre cohérence, mais qui
est mise à mal par les évolutions récentes. La transversalité, la
reprise des contenus sous des formes variées, l’usage
« pointilliste » qui est fait des différents supports par les
utilisateurs, les transferts médiatiques, nous paraissent devenir
à leur tour des objets d’étude à part entière, ce qui oblige à les
construire, dans un cadre de référence qui ne soit plus
exclusivement dicté par l’identité du média d’origine. Dans ces
conditions, un support médiatique sera « suivi » dans ses
diverses et successives transformations afin d’essayer de
rendre compte de l’enchevêtrement complexe des aspects
matériels (en particulier lorsqu’ils sont ancrés dans des
dispositifs
techniques),
symboliques,
sémiotiques,
anthropologiques qui le régissent. C’est justement dans la
mesure où ils font intervenir de manière très claire une
dimension à la fois symbolique (sémiotique), technologique et
sociologique, les portails d’entreprise se révèlent un objet
particulièrement fécond.
Le document comme objet trivial, contraintes et
métamorphoses.
Nous interrogeons les intranets et portails d’enteprise à partir
d’un double présupposé, celui-là même qui leur est assigné par
leurs concepteurs et metteurs en œuvre : ils visent à la fois à
constituer des cadres pour l’activité - et ils sont bien à ce titre
des outils de travail -, et à organiser une matière documentaire
considérée comme élément nécessaire pour accomplir cette
même activité. De ce point de vue, ils ramènent l’objet
document au cœur de la pratique organisationnelle.
Repartir de la notion de document en tant que tel, n’est-il pas
risqué dans la mesure où il s’agit d’un concept générique,
pouvant s’incarner dans des formes et des supports multiples
et constituant dès lors un champ trop vaste pour l’analyse ?
Nous sommes conscients de ce risque et de cette contrainte,
mais c’est précisément parce que la notion de document est
aujourd’hui interrogée très largement par les SIC à partir de
ses métamorphoses formelles, notamment comme « document
numérique »93 que nous maintiendrons, dans un premier temps,
cet angle d’attaque.
Une première question pourrait être de s’interroger à partir de
la signification de « document » pour les deux grandes
« familles » composant les SIC. Si la notion de document est
centrale dans les disciplines de la documentation, de la
bibliothéconomie, dans l’histoire du livre…, elle s’efface
relativement derrière la forme ou le contenu communiqué dans
les disciplines de la communication, le journalisme, la
93
Signalons, entre autres et sans prétendre à l’exhaustivité, des manifestations (la
semaine du document numérique à La Rochelle en 2005), des travaux collectifs
(Textes signés Roger Pédauque du RTP-doc)), des dossiers et numéros de revue
(Communications et Langages n° 140, Sciences de la société n°68), etc.
101
102
communication d’entreprise, les media studies… Dans les
deux cas, le document ici analysé relève d’une sphère
« noble » : il s’agit du livre, du journal, du média audiovisuel,
de l’affiche…
Notre intention est de partir, au contraire, du support formel et
d’interroger ses avatars et sa circulation entre des domaines où
à chaque fois il perd/gagne un nouveau format, une nouvelle
identité. La réalité même de l’évolution technologique –entre
autres- nous oblige au mouvement, à la confrontation des
points de vue, à la dialectique. Il est certes possible d’isoler
une forme documentaire donnée (et c’est même
méthodologiquement
souhaitable
pour
des
études
particulières) dans son état de « prêt à communiquer », mais on
doit prendre en compte aussi le fait que cet état n’est plus
aujourd’hui, ni définitif, ni stable. Une autre conséquence
mesurable de l’évolution actuelle est l’accès au statut de
document d’une multitude d’objets, de ressources, qui
restaient jusqu’alors dans les limbes d’une pré ou d’une protodocumentation 94. Les outils de production documentaire et les
pratiques sociales autour du document n’étaient pas encore
axées vers cette mise au jour, cette mise à l’existence95 qui
aujourd’hui aspire vers un espace public propre à
l’organisation tout ce qui relevait de la production individuelle
ou de l’échange inter-personnel (un post-it, une note griffonée
sur un dossier, un papier passé au cours d’une réunion,
deviennent des posts dans des blogs, des réponses à des
courriels, des messages de validation dans des workflows, etc.)
Cette multiplicité du document, cette surdocumentarisation96
amène, nous semble-t-il, la possibilité et la nécessité d’un
nouveau regard, à la fois sur le document, mais aussi sur les
contextes organisationnels dans lesquels s’insèrent ce matériau
particulier. Si les univers dans lesquels circulent
habituellement
les
documents
traditionnels
sont
particulièrement identifiés, (on reliera le livre aux études sur
les bibliothèques, l’image animée à l’analyse du film ou de la
télévision, l’article aux études sur le journalisme,
l’exploitation des contenus à l’analyse de discours, etc.), n’estil pas intéressant de repérer des lieux où ces catégories se
répondent, s’estompent, se croisent, voire se délitent ? Il nous
semble qu’à cet égard, l’interrogation de la façon dont les
organisations d’entreprise sont interpellées par la nécessité
d’une gestion documentaire bien élargie par rapport aux
problématiques traditionnelles du « centre de documentation »
peut être particulièrement fructueuse.
« L’organisation » peut certes être considérée comme objet
d’analyse, du point de vue de l’étude des flux de
communication qui relèvent plus généralement de la sphère
institutionnelle. Notre constat, et l’hypothèse de recherche qui
en découle, est que la notion de document, dans sa dilution
même, permet de questionner non seulement les approches
classiques afférentes à la construction du sens par la maîtrise
de la forme documentaire, mais également les concepts liés à
l’organisation dans leur représentation. L’évolution des
organisations vers une sorte de tissu où se multiplient
l’entrelacs des réseaux de communication, l’échange des
messages et des textes, bref la « documentarisation » de
l’activité, rencontre forcément la problématique de
l’organisation documentaire et de l’organisation tout court.
De l’organisation de la masse documentaire…..
94
Pédauque 3 parle de « proto-documents », Brigitte Guyot et Marie-France
Peyrelong (Guyot, 2006) s’interrogent sur ce moment où « un inscrit devient un
document ».
95
96
Pierre Delcambre parle, dans un autre contexte de « mise à l’écriture ».
Manuel Zacklad (Zacklad, 2004) parle de documentarisation pour désigner un
processus constituant à « pérenniser le support matériel de la transaction
(communicationnelle) et à le doter d’attributs permettant sa ré-exploitation. »
Comme lieux d’activité humaine, les « organisations »
produisent, autour des biens, marchandises, et services qui
sont leur objet principal d’activité, des traces écrites, sonores,
imagées, des signes organisés en documents. Cela n’est pas
nouveau en soi et cette activité dans l’activité, peu valorisée et
peu reconnue a été progressivement structurée en champ de
recherche, par des groupes de chercheurs comme Langage et
travail, Org and co… Si la dimension langagière et sémiotique
est abordée, nous pensons que, de notre point de vue, il peut
être fécond de croiser avec la dimension matérielle et
technologique qui forme l’un des pôles de l’approche « sémiotechno-sociologique ». En effet, parmi les mouvements
récents, nous pouvons noter d’une part l’accroissement
quantitatif phénoménal de la production documentaire, le
changement d’échelle de l’activité, traduit par une
« surdocumentarisation », mais également le changement de
statut de l’objet document en lui-même. L’approche consiste à
montrer que, en saturant l’espace même de l’organisation, la
multiplicité documentaire entraîne globalement une
sémiotisation des activités (Despres, Cotte 2005), dans la
mesure où les outils de travail eux-mêmes se présentent
comme des documents. La messagerie (Despres, in Souchier
2003), le « bureau » de l’ordinateur, le portail ou l’intranet
(Cotte 2005/Nice, 2005/Tours) sont à la fois des objets pour
agir et des objets sémiotiques. Ils doivent être « lus » pour être
compris, contrairement à l’idée répandue que l’usage des
logiciels peut/doit être « intuitive » et « transparente ». Cette
épaisseur du média le conduit à « absorber » en quelque sorte
les strates, les agencements, les relations à l’œuvre dans
l’organisation pour les restituer sous une forme métaphorisée
et sémiotisée.
De ce point de vue, nous pouvons prendre appui sur
l’ensemble des études qui, depuis le début des années 1990,
ont travaillé sur la mise en lumière du document dans les
contextes de travail comme un objet digne d’étude et comme
un prisme d’analyse des organisations. L’étude des « écrits au
travail » (Delcambre, 1997) la compréhension du document
comme un « analyseur d’action sociale » (Gaglio, Zacklad,
2006) la relation entre « langage et travail » ou « organisation
et communication », l’analyse du document comme « forme,
signe et medium » (Pedauque, 2003) sont autant de jalons vers
la constitution d’un solide cadre de références théoriques pour
poser les relations entre document et organisation. Faisant le
bilan d’une partie de ces recherches, Brigitte Guyot et MarieFrance Peyrelong (Guyot, Peyrelong, 2006) évoquent deux
« mises à l’épreuve successive » pour le document dans les
environnements de travail : la première est celle de sa
production proprement dite au cours d’un processus éditorial,
la seconde celle de sa diffusion dans un autre contexte.
A ces deux dimensions qui sont effectivement fondamentales,
nous souhaiterions en ajouter une troisième, qui ne voit pas
simplement le document ou même la collection du document
produite dans l’action, mais qui prend aussi en compte le
document dans sa masse, et la question de la gestion de cette
masse documentaire à l’échelle d’un organisme tout entier.
En effet, ce retour vers le document témoigne de
l’impossibilité radicale d’évacuer la matérialité des supports de
l’information. La logique de la « gestion de l’information »
voulait croire et faire croire à la prédominance du flux, au
prétexte que les technologies de l’information facilitent en
premier lieu le transfert et la circulation. Mais flux et stock,
loin de s’opposer comme deux termes d’une alternative,
correspondent à deux moments d’une même réalité.
L’explosion documentaire rend visible et nécessaire, à
l’échelle des organistions entières, l’activité de sélection, de
tri, d’indexation, de nommage, bref le traitement de la masse
documenaire.
Or, dès lors qu’elle est prise en compte comme masse, et ceci
102
103
à l’échelle globale de l’organisation, cette matière
documentaire ne relève pas tant d’une problématique
technique que politique et managériale. Son traitement induit
une immixtion dans les pratiques personnelles de classement,
de rangement, d’empilement (Fischler, Lalhou, 1995)
sommées d’être normalisées dans le cadre de pratiques
socialement définies.
On peut voir un exemple de ces problématiques émergentes
dans la montée récente du records management, lui-même
héritier des problématiques documentaires liées au
management par la qualité dans les années 1980. Derrière le
records management, il y a une injonction de gestion
(management), qui renvoie au producteur de l’information la
responsabilité de gérer le document en anticipant son devenir
(l’idée de « cycle de vie du document »). L’analyse de ce
mouvement dépasse largement le cadre de cette
communication mais rentre totalement dans le cadre de la
problématique que nous défendons. En effet, dans son
activité quotidienne, un salarié produit en vue et en sus de sa
tâche, des flux que l’on pourrait qualifier d’information, mais
qui se matérialisent dans des écrits, des supports, des
documents, ou des ressources numériques (bases de données,
blogs, intranets…). Le problème, - problème d’autant plus
crucial que les systèmes eux-mêmes, ainsi que les procédures
(Qualité, KM…) tendent à multiplier les sources d’émission et
les flux documentaires - est l’accentuation du désordre et la
nécessité de rationaliser et de contrôler le flux. A travers des
entreprises comme le records management ou la proposition de
plans de classement unifiés pour l’ensemble de la firme ce qui
se manifeste c’est une activité qui est à la fois langagière et
documentaire au sens strict du terme. La problématique de la
classification, de la désignation, de l’indexation, des listes,
n’est plus simplement appliquée à des corpus de documents
reconnus dans des lieux donnés, comme les centres de
documentation, elle est appelée à structurer un espace de
dialogue et, mieux encore, l’espace de travail tout entier. Dès
lors que, au moins dans les activités tertiaires97, l’écran de
l’ordinateur a tendance à absorber la plupart des activités, son
organisation spatiale, et pour tout dire son organisation
sémiotique devient primordiale. Les intranets importent au
sein des organisations les formes de structuration d’écrans qui
ont été popularisées par les sites grand public : mise en page
en mosaïque, menus déroulants, cadres d’action, formes ayant
toutes pour but de gérer l’accès à une information foisonnante
et multiple. Les études menées sur le comportement de
« lecture » des internautes (Souchier 2003, Ghitalla 2003) ont
montré que souvent ces derniers projetaient des
représentations a priori (prédilection sémiotique) mais qu’ils
pouvaient aussi être victimes de désorientation par rapport à
ces nouvelles manières de se repérer dans un espace
sémiotique dont les codes diffèrent des univers déjà connus98.
A cette question reliée à la problématique de la lecture sur les
nouveaux médias, s’ajoute celle de l’exhibition de
l’organisation documentaire du dispositif, car, en théorie,
l’ensemble des collaborateurs est invité à participer à
l’alimentation de l’intranet ou du portail en émettant des
documents et en les situant dans un espace donné.
…à la documentarisation de l’organisation.
Les intranets et portails sont à la fois des objets techniques
puisqu’ils rassemblent des outils de travail, et des objets
symboliques, auxquels l’idéologie managériale assigne un rôle
97
Mais dans l’industrie, les activités de contrôle et de maintenance se font aussi
par la médiation des écrans de travail.
98 Une bonne part des analyses menées à propos des sites web peut être
appliquée ici, avec prudence et à condition d’adapter le propos, aux systèmes
d’information à l’œuvre dans les organisations.
socialisateur et pacificateur. Ces applications sont investies de
la mission impossible de rendre transparente, démocratique et
efficace l’organisation dans le contexte pacifié d’un espace
global de travail partagé.
Ainsi le journal Les Echos présente-t-il des fiches sur les sites
lauréats de son trophée « Intranet 2005 ». Les objectifs
poursuivis sont exprimés sous la forme de quasi slogans et
révèlent l’intention qui préside au projet.
Hiérarchiser l’information pour répondre à la
multiplication des contenus et éviter tout risque de
saturation (Bouygues)
Donner la bonne information à la bonne personne au bon
moment (Bouygues)
Motiver les équipes via l’atualité et les différentes
nominations (Eurovia)
Trier parti des investissements faits dans les progicies de
gestion en utilisant et partageant les informations (SaintGobain vitrage)
Permettre aux agents d’être acteurs à part entière de la vie
du site intranet (Ratp bus)
De leur côté, les discours commerciaux présentent une vision
sans nuance des avantages qu’il y a à entrer dans l’ère de
l’intranet :
« La communication totale au sein de l’entreprise est
enfin possible, gain de temps, amélioration du service au
client, meilleure coordination, conservation de l’historique,
communication entre services, diffusion de l’infomration,
convivialité : le portail HONOLULU concourt à la réussite de
votre entreprise. »99
Bien évidemment, ces discours commerciaux font bon marché
de toute l’analyse due à la sociologie des organisations sur les
écarts entre le réel et le prescrit et sur sa critique des visions
outrancièrement rationalisatrices (Fridberg 1997)100. Mais on
ne saurait non plus les évacuer purement et simplement au
prétexte de cette différence attendue entre leur promesse et la
réalité de leur application. Car cette promesse fait
intégralement partie du jeu social complexe qui se pratique
autour des outils, surtout lorsqu’il s’agit de gestion de
l’information. Il faut reconnaître qu’au-delà du discours,
l’intention managériale doit trouver un point d’appui concret
et une base matérielle pour se manifester. L’intranet ou le
portail ne peut pas être une simple coquille vide annonçant une
nouvelle forme de travail et de nouveaux modes de partage. Il
faut qu’il se corporifie dans quelque chose, au-delà même des
outils de travail classiques qui assurent du lien social comme
la messagerie ou les outils de travail collaboratif. Dans ces
conditions, il est inévitable que l’intranet rencontre la masse
documentaire, non seulement parce que celle-ci comme nous
l’avons vu, a besoin d’être organisée et qu’elle peut trouver là
un outil, mais encore parce qu’elle va pouvoir incarner, donner
corps à une vision politique, au sens managérial du terme,
induite par la construction du portail. La simple présentation
d’un organigramme des services par exemple serait
impuissante à fédérer cette communauté de travail qui est
l’ambition avouée des portails d’entreprise.
En s’appuyant sur la masse documentaire comme matériau de
structuration de l’intranet ou du portail et de ses rubriques, le
projet admet que cette production documentaire parle sur
l’organisation, qu’elle est trace des activités, des relations
sociales, des répartitions de territoires et de pouvoir. Dès lors
les questions cruciales s’énoncent comme : « Qui alimente
99
www.pcsoft.fr/honolulu/index.html
100
On pourrait malgré tout ajouter à la position de Fridberg sur la nécessaire
localisation du champ d’action, le fait qu’ici la norme extérieure intervient très
fortement du fait de la contrainte de l’outil. Les éditeurs et concepteurs imposent
leur propre vision selon des schémas pré-établis (ce que Yves Jeanneret appelle la
« prétention informatique » et surtout modèlent un imaginaire qui renvoie aux
grandes utopies de la communication (Flichy 1993 et 2001).
103
104
quoi ?», « qui donne à lire à qui ?» (ou « que doit-on ne pas
donner à lire et à qui ? ») et les problématiques afférentes au
classement, au rangement, à la mise en visibilité des
documents deviennent des enjeux de discussion dans les
projets.
On peut voir par exemple un aspect de cette problématique
dans la manière dont les moteurs de recherche sont intégrés
dans les portails d’entreprise. Semblables dans leur
fonctionnement aux outils utilisés sur le web (quand ce ne sont
pas tout simplement les mêmes) ces outils sont utilisés dans un
contexte différent, car ils se focalisent sur un nombre
nettement plus restreint de documents, pour la plupart, intégrés
dans une logique structurée et fortement portée par une
identification typologique du document. En effet, la relation
entre
structuration
documentaire
et
structuration
organisationnelle remonte au moins à l’apparition des grandes
organisations structurées de la firme au tournant du 20° siècle
avec la mise en œuvre de premiers procédés de reprographie
(dactylographie, papier carbone). Entre rapport, memorandum,
note de service, note de direction, circulaire, règlement
intérieur, compte-rendu de réunion, compte-rendu d’assemblée
générale, document technique, document qualité… nous avons
une typologie dont la forme parle avant même le contenu. Ce
n’est pas la même chose de se référer à une note de direction
ou à un compte-rendu de réunion de service. Avant même d’en
avoir exploré le contenu, l’utilisateur aura fait sienne une
représentation de la nature des arguments qu’il peut y trouver,
de la validation et de l’autorité des contenus dont le document
est porteur. Par conséquent, dans cette logique, la pratique
d’un plan de classement est à la fois plus efficace et plus
conforme à la représentation de l’organisation traditionnelle
des stocks de papier que l’utilisation d’un moteur de
recherches. Mais les intranets proposent le plus souvent les
deux, ce qui ne constitue pas en soi une difficulté, mais le
devient dès lors que les utilisateurs, qui ne sont pas des
professionnels de la recherche documentaire, importent dans
cet univers structuré les pratiques spontanées qu’ils ont (mal)
acquises dans leur fréquentation des sites web (voir à ce sujet
l’article de Marie Després-Lonnet sur les pratiques
documentaires des étudiants en bibliothèque [Despres-Lonnet
2006]). Il est courant d’entendre exprimé par les utilisateurs
des intranets que « le moteur de recherches est mauvais » et
« qu’on ne retrouve rien sur cet intranet ». A notre sens,
incriminer l’outil, le moteur en tant que tel est une fausse
problématique – quelles que soient par ailleurs ses limites et
performances réelles – dans la mesure où l’utilisateur ne se
place plus dans la perspective de rechercher un document –
alors que l’intranet peut être considéré comme une collection
documentaire –, mais une information ou plus précisément la
trace linguistique de cette information à travers un mot-clé101.
Ainsi, dans une grande compagnie d’assurance, une personne,
pourtant habituée au langage codifié, structuré de son
organisme cherche une note de direction où il est question de
« sécurité sociale » en tapant « sécu » dans le cartouche de
recherches. Elle ne parvient pas à relier l’échec de sa requête
au fait qu’elle a abandonné le langage « soutenu » en vigueur
dans l’organisme pour utiliser un registre familier qui n’y a pas
droit de cité. Il est probable que si elle cherchait ce document
dans une armoire de bureau, elle ferait fonctionner d’autres
indices relevant de l’organisation de l’espace (par exemple les
notes de direction dans une chemise d’une couleur donnée)
[Fischler, Lalhou 1995] et qu’un rapide feuilletage la guiderait
plus sûrement vers le document attendu. Ainsi, loin de
supprimer les pratiques « sauvages » liées à l’organisation de
la documentation papier dans l’espace personnel du bureau, la
numérisation des stocks documentaires en génère d’autres,
101
On sait que, sur le web, les utilisateurs travaillent en général à partir d’un seul
mot-clé, parfois deux ou d’une locution complète.
mais qui ne sont pas forcément plus efficaces. Quoiqu’il en
soit, à travers le portail, l’organisation se cherche une
représentation sémantique, en contraignant les flux
informationnels à se ranger, se classer, se discipliner dans les
bases de données, les archives et en en faisant les témoins
d’une activité, présente et passée.
Conclusion.
Nous avons cherché à montrer que deux phénomènes qui
pourraient s’analyser chacun à partir d’un présupposé
théorique et méthodologique distinct (le traitement du
document et la logique d’organisation) avaient partie liée. Bien
qu’une recherche historique approfondie pourrait montrer sans
doute en quoi cette double problématique existe dès les débuts
de l’entreprise moderne, elle nous paraît particulièrement
visible dans les dispositifs qui sont actuellement mis en place
sous la forme des intranets et portails d’entreprise, dans la
mesure où ils sont structurellement obligés, ET d’organisser
informatiquement une représentation symbolique de
l’entreprise, de ses départements et des ses réseaux, ET d’aider
à gérer la masse documentaire produite par le fonctionnement
moderne des organisations. Issus de la combinaison de
plusieurs technologies, dont celles du web, mais intégrant
également les apports de la Geide, du workflow et des bases de
données, les intranets et portails nous obligent à prendre en
compte l’inter-relation entre les effets structurants
nécessairement produits par ses outils et les représentations
organisationnelles qui sous-tendent leur mise en place et leur
déploiement.
Bibliographie.
Bouillon J.-L., Pour une approche communicationnelle des processus
de rationalisation cognitive des organisations : contours, enjeux et
perspectives, Colloque Organisation media, Lyon, Université Jean
Moulin,
novembre
2004
(article
consultable
sur
http://archivesic.ccsd.cnrs.fr)
Carmes M., L’intranet : métaphore des relations de pouvoir dans
l’organisation, Actes, 13° colloque de la SFIC, Marseille, Octobre
2002
Cotte D., Les portails d’entreprise, entre métaphorisation et
sémiotisation des organisations, Colloque Culture des organisations
et Distic, Nice, 2005a
Cotte D., La structure comme index, Le rôle indiciel des interfaces
documentaires. Colloque indice, index, indexation, Lille, 3-4
Novembre 2005, 2005b
Despres-Lonnet, M. Écrits d'écran : le fatras sémiotique,
Communication et Langages, n°143, 2004
Despres-Lonnet, M. Les étudiants et la documentation électronique,
BBF, t.51, n°2, 2006
Fischler C., Lalhou, S., "Dossiers, piles d'attente et corbeilles - La
gestion quotidienne de l'information au bureau." 58 pages. EDF,
1995
Gaglio G., Zacklad M., La circulation documentaire en entreprise
comme analyseur de pratiques professionnelles. Une étude de cas,
Sciences de la société, n°68, Mars 2006.
Ghitalla F., Boullier D., et al. L’outre-lecture, Manipuler (s’)
approprier, interpréter le web, BPI, 2003
Guyot, B., Sciences de l’information et activité professionnelle ,
Hermès, n°38, mai 2004
Guyot B., Peyrelong M.-F., le document dans une perspective
organisationnelle. Un objet comme un autre ? Sciences de la société,
n°68, Mars 2006
Jeanneret, Y., « La Trivialité comme évidence et comme problème : à
propos de la querelle des impostures », Enjeux de l'Information et de
la communication, Université Grenoble 3, décembre 1999
Jeanneret Y., Y a-t-il [vraiment] des technologies de l’information ?,
Septentrion, 2000
Jeanneret, Y., Souchier, E., « Pour une poétique de l’écrit d’écran »,
Xoana, Paris, Jean-Michel Place, n°6, “Multimédia en recherche”,
1999, p. 97-107
Le Marec, J., Babou, I., De l’étude des usages à une théorie des
« composites » : objets, relations et normes en bibliothèque, in.
Souchier, et. al., Lire, écrire, récrire : Objets, signes et pratiques des
médias informatisés, Bibliothèque publique d’information, 2003
104
105
Pedauque R., Document et modernités, 2006
Semprini A., La société de flux. Formes du sens et identité dans les
sociétés contemporaines, L’Harmattan, 2003
Yates J., From Press Book and Pigeonhole to vertical filling :
revolution in storage and access systems for correspondance, The
journal of business communication, vol 19, 1982
Zacklad M., Processus de documentarisation dans les Documents pour
l’Action (DopA) : statut des annotations et technologies de la
coopération associées, actes du colloque “Le numérique impact sur le
cycle de vie du document pour une analyse interdisciplinaire”,
Montréal, Oct, 2004, Editions de l’Enssib.
105
106
La Gestion de l’Information des organisations : analyse de définitions et conceptualisation
Jeremy DEPAUW
Dpt des Sciences de l'Information et de la Communication (SIC)
Université Libre de Bruxelles (ULB)
[email protected]
sic-IT: http://siculb.blogspot.com
Résumé : Toute démarche de Gestion de l’Information (GI) fait désormais partie des enjeux stratégiques pour les organisations.
De nombreux ouvrages proposent des méthodes variées pour l’appréhender, la comprendre et la mettre en place. Pourtant,
malgré la profusion de termes, de concepts et de définitions qui gravitent autour d’elle, peu de travaux se sont attaché à clarifier
les ambigüités et les imprécisions conceptuelles. Parmi les étiquettes qu’on lui attribue (Veille, Intelligence, etc.), chacune
indique une même volonté d’appréhender l’information pertinente pour l’organisation en vue d’assurer sa pérennité. Mais
aucun de ces termes n’est réellement interchangeable. L’objectif de cet article est d’identifier les dimensions du concept de GI et
leurs composantes majeures afin de proposer une définition du concept de GI, construite à partir d’une revue de la littérature.
Plutôt que d’envisager la Veille ou l’Intelligence comme des activités distinctes, cet article propose la GI comme un concept
composé de trois dimensions majeures : la Surveillance, la Veille et l’Intelligence. Chacune de ces dimensions fait l’objet de
nombreuses définitions dans la littérature, dont l’analyse des mots-clés montre la prédominance de certaines catégories
sémantiques, mettant ainsi en évidence la cohérence et les points communs entre les nombreuses formulations. Cet article
soutient l’idée que la GI pourrait être considérée comme un concept générique, utile à la description et la compréhension de
l’ensemble des démarches visant à appréhender l’information, indépendamment des moyens ou des objectifs mobilisés par
chacune.
Mots-clés : Gestion de l’Information (surveillance – veille – intelligence), Organisations, Médiation, Surveillance, Aide à la
décision, Action d’influence
Introduction
Gérer l’information constitue un impératif majeur pour les
organisations soucieuses d’assurer leur pérennité. Michael
Porter [1986] l’affirmait il y a 20 ans, il faut donner « la bonne
information à la bonne personne, au bon moment » et ce,
« pour prendre la bonne décision ». L’étude des organisations
a été marquée par l’approche systémique et de nombreux
auteurs ont participé à la construction de ce champ de
recherche, en quête permanente de bases théoriques solides et
d’une légitimité scientifique [Le Moigne, 1974, Le Moigne,
1977, Bartoli et Le Moigne, 1996, Tardieu, 1991]102. La
Gestion de l’Information (GI) par les organisations s’insère
dans ce contexte de recherche.
Cet article a pour objectif de discuter les enjeux
terminologiques et conceptuels liés à la prise en charge, par les
organisations, de l’information issue de leur environnement.
Le novice, autant que l’observateur averti et même le
professionnel, qui se penche sur la littérature liée aux activités
de GI ne peut que constater une instabilité des connaissances
[Boizard, 2005] et un flou terminologique marqué [Cohen,
2004]. Corine Cohen explique ce constat par la relative
jeunesse des concepts et la difficulté à concilier les
contributions d’origines différentes. C’est le cas en particulier
pour les traductions et transpositions entre les travaux anglosaxons et français. A ceci, le développement des activités
comme outil stratégique peut être ajouté. Leur développement
est toujours resté relativement confidentiel, malgré les
initiatives
d’ouverture
(rapports
publics,
création
d’associations professionnelles, etc.). Enfin, ancré dans la
pratique, ce domaine d’activité a le plus souvent été porté et
promu par ses praticiens, plus que par les théoriciens.103
102
Le lecteur trouvera un panorama synthétique et circonstancié à ce sujet dans
GUYOT, Brigitte, « Système d’information : construction d’un objet de recherche »,
in : DELCAMBRE, Pierre, Communication Organisationnelle : Objets,
Pratiques, Dispositifs, Rennes, Presse Universitaires de Rennes, 2000, pp. 81 à
94.
103
A ce sujet, Odile Boizard propose un panorama riche et documenté sur la
question de l’articulation de la Veille et de l’IE, incontournable pour quiconque
s’intéresse à ce sujet. BOIZARD, Odile, « Veille ou Intelligence Economique,
faut-il choisir ? Retour d’expérience », Marseille, juin 2005 (consulté la dernière
Il convient d’indiquer que les deux activités principales
mobilisées dans cet article sont la Veille et l’Intelligence
Economique (IE).104 A ce sujet, il est largement admis qu’il
s’agit de notions aux frontières floues. Levet [2001] explique
que depuis la définition de l’IE, donnée par le rapport Martre
en 1994, les formulations nouvelles se sont multipliées, selon
deux vagues successives : des descriptions en termes de
processus et de techniques [Salles, 2000] suivies d’approches
pluridisciplinaires, inscrites dans une perspective d’une
économie de la connaissance.
L’instabilité constatée se manifeste dans de nombreux
aspects de l’étude des activités de GI. Dans le cadre de cet
article, c’est le flou autour des définitions qui sera traité. Ce
besoin s’est justifié dans le cadre d’une recherche plus large
sur l’IE (DEA d’abord et thèse ensuite) qui n’a semblé pouvoir
faire l’économie d’une remise en cause plus large [Boizard,
2005]. Ce flou est également préjudiciable pour les
professionnels, qui, dans leurs pratiques quotidiennes, sont
amenés à gérer de front un arsenal d'outils variés. Or, il est
devenu difficile de savoir quel outil correspond à quelle
pratique.
Malgré tout, il serait excessif de dénoncer une absence
totale de cohérence ou de consensus. Dès lors, le propos n’est
pas ici de remettre en cause les travaux antérieurs, mais plutôt
de tenter d’en extraire les éléments-clés, d’en identifier le fil
rouge et d’en comprendre l’articulation afin de proposer une
grille de lecture qui permette de pallier l’instabilité observée.
Pour étayer et structurer cette approche, il semble utile de tirer
profit de travaux antérieurs. Deux sources principales sont ici
mobilisées : les travaux de Corine Cohen [2004] et ceux de
Daniel Rouach [1996].
Corine Cohen a entrepris une analyse de fond de
l’évolution du concept général de Surveillance (qui peut être
fois le 28/06/2006, à l’adresse : http://www.euromedmarseille.com/index.jsp?id=7659 )
104
Par souci de clarté, les majuscules aux termes GI, Veille, IE et Surveillance
font référence à des activités communément utilisées pour décrire le travail de
terrain. Ils se distinguent ainsi des catégories sémantiques mobilisées lors de
l’analyse.
106
107
assimilé à notre concept de GI) depuis la fin des années ’60.
Pour ce faire, elle a étudié les titres des ouvrages et articles
publiés depuis 1967105. Elle a pu ainsi identifier trois phases
dans le développement du concept et mettre en évidence le
« retard » des travaux français/francophones d’une décennie
par rapport aux travaux anglo-saxons. En outre, la typologie
des concepts issus de la Surveillance suscite ici le plus grand
intérêt. Elle peut se résumer de la manière suivante :
•
Scanning / Surveillance : une attitude d’observation
attentive de l’environnement de l’organisation qui
peut s’assimiler à un radar dont la fonction est de
prévenir, d’alerter quand un évènement inhabituel
survient.
•
La Veille : elle a une fonction plus anticipative à
laquelle vient se greffer une fonction informative.
Elle met en évidence les impacts d’évènements
potentiels. Cohen la considère comme distante de la
prise de décision.
•
L’Intelligence : elle agit au-delà de l’identification
des impacts en faisant des recommandations ou en
proposant des actions.
Cohen insiste sur le fait que cette évolution du concept de
Surveillance doit se comprendre comme une apparition de
caractéristiques cumulatives (la Veille fait partie de
l’Intelligence), marquant un passage chaque fois plus marqué
dans le processus de décision et la proactivité.
Daniel Rouach, pour sa part, a, depuis de nombreuses
années, proposé une typologie des veilleurs106, proposant cinq
types de professionnels, caractérisés par deux variables : leur
degré de professionnalisme (axe des X) et le degré d’activité
(axe des Y). Cette matrice permet de distinguer cinq types de
veilleurs, du « dormeur » au « guerrier ». Cette typologie,
appliquée au travail de Cohen, permet de caractériser les trois
types d’activités, selon ces critères. La Surveillance reste
passive, la Veille devient active et l’Intelligence nécessite des
démarches offensives. De la même manière, le passage à
l’Intelligence suggéré par Cohen requiert un plus grand
professionnalisme de la part des organisations, tant de la part
des théoriciens que des professionnels ; ces derniers ont vu
leur rôle d’observateur et de médiateur prendre une place de
plus en plus marquée dans les réseaux et les stratégies de
gestion. Dès lors, la matrice de Rouach sera réduite ici à trois
catégories d’items (passifs, actifs, proactifs) qui ne consistent
pas en des acteurs mais en des activités, étiquetées selon la
typologie de Cohen (Surveillance, Veille, IE).
Le besoin de clarification à l’origine de cet article est
particulièrement marqué dans les définitions que les auteurs
donnent aux termes tels que « Veille » ou « IE ». Ainsi, un
regard transversal sur la littérature traitant de GI met en
évidence une série d’appellations différentes : Intelligence
économique, Intelligence économique et stratégique, Veille,
Veille stratégique, technologique, Scanning, Surveillance,
Intelligence compétitive, Business Intelligence, etc. Tous ces
termes se recoupent et sont liés, sans vraiment être
interchangeables ; cela fragilise toute tentative de mise au
point de bases stables à l’étude de la GI. Les ambigüités
provoquent des malentendus et empêchent une interopérabilité
des concepts entre les auteurs et les approches. C’est donc par
l’intermédiaire des définitions et l’identification de leurs
éléments majeurs qu’une définition générique des activités de
GI sera proposée.
105
Pour une lecture détaillée de cette étude, cfr COHEN, Corine, Veille et
intelligence stratégique, Lavoisier, Paris, 2004, pp. 45 à 66.
106
Pour une lecture détaillée de cette matrice, cfr ROUACH, Daniel, La veille
technologique et l'intelligence économique, 1ère éd., Presses universitaires de
France, Paris, 1996, p. 29
Etude de la littérature
L’objectif de cette analyse est de définir la GI, en tenant
compte des éléments-clés repris dans les définitions des
différentes activités qui lui sont généralement attribuées. De
manière schématique [Quivy et Van Campenoudt, 1995], le
concept de GI est ici, a priori, considéré comme articulé
autour de trois dimensions - Surveillance, Veille et IE – pour
lesquelles nous voulons identifier les différentes composantes.
Une exploration de la littérature a permis de recueillir un
ensemble de définitions de la Surveillance, de la Veille et de
l’IE (n=54). Sans être exhaustive, elle rassemble néanmoins la
majeure partie de celles qui ont été produites, en français, ces
dernières années.
L’analyse consiste à isoler les mots-clés des définitions et à les
classer selon cinq catégories sémantiques qu’une analyse
exploratoire du corpus a permis de mettre en évidence. Lors de
cette phase préliminaire d’analyse, les mots-clés ont pu être
rassemblés d’emblée selon la typologie de Cohen (3 à 5). Les
catégories 1 et 2 sont apparues comme pertinentes pour
englober ceux qui n’entraient pas dans les premières. A elles
cinq, ces catégories couvrent la quasi-totalité des termes et
expressions riches de sens dans les définitions :
•
Les indications relatives à la médiation de l’information
(1)
•
Les indications relatives à l’environnement de
l’organisation (2)
•
Les indications relatives à l’action de surveillance (3)
•
Les indications relatives à l’action d’aide à la décision (4)
•
Les indications relatives à l’action d’influence (5)
Ces catégories constituent autant de composantes potentielles
des trois dimensions de la GI évoquées ci-dessus.107 C’est la
proportion des occurrences des différentes catégories
sémantiques qui détermine le poids des composantes dans
chaque dimension.
Il est important de signaler qu’il ne s’agit en aucun cas d’une
analyse sémantique poussée. L’objectif est de formaliser la
lecture des définitions pour les exploiter rigoureusement. La
mise en œuvre de cette démarche a montré d’emblée que la
structure des dimensions choisies comme base de travail est
restée soutenable lors de sa mise à l’épreuve.
De manière générale, l’analyse permet d'identifier les
composantes qui dominent dans la formulation de chaque
dimension de la GI, et de les représenter (figure 1) :
•
La Surveillance : elle est surtout définie par des
indications relatives à l'action de surveillance, au sens
large, de l'environnement
•
La Veille : elle est surtout définie par des indications
relatives à la médiation de l’information et à l'aide à la
décision. La surveillance et l'environnement restent
importants malgré tout.
•
L'IE : Elle est surtout définie par des indications relatives
à la médiation et à l'aide à la décision. En outre, c'est dans
ces définitions que l'on retrouve la plus grande part
d’occurrences relatives aux actions d'influence,
inexistantes en Surveillance et anecdotiques en Veille.
Figure 1 : Le concept de GI, ses dimensions et leurs
composantes :
107
Exemple : La définition de la Veille par Francart, [Francart, 2002] :
L’activité principale de recueil de l’information (1) dans le monde de l’entreprise
(2). Elle a pour but de recueillir l’information (1) nécessaire à l’entretien du savoir
(1) de l’entreprise et à sa transformation (1) pour améliorer la prise de décision.
(4) Ici, la catégorie (4) n’apparait qu’une fois mais reste capitale puisqu’elle est
présentée, selon Francart, comme le but final de la Veille.
107
108
Une observation plus détaillée apporte des enseignements
importants :
•
Les indications liées à la médiation de l'information
représentent la part la plus importante des mots-clés
identifiés dans les définitions. A cette catégorie, s'ajoute
celle des mots-clé liés à l'environnement, à son évolution,
ses tendances, etc. A elles deux, ces catégories,
indépendantes des objectifs de la Surveillance, de la
Veille ou de l'IE, représentent une part significative (+ de
50%) des mots-clés.
•
La composante de l’action d’aide à la prise de décision
n'est pas négligeable non plus. Ainsi, si la surveillance est
présente, elle semble un objectif sur lequel l'accent est
fort marqué. Il faut noter que cela ne signifie pas
forcément que la détection des menaces et opportunités
(environnement) soit considérée comme moins
importante. L'évolution historique semble avoir conduit
les auteurs à considérer cet aspect comme acquis et ils ont
peut-être davantage insisté sur l'aspect décisionnel en le
détaillant (d'où l'occurrence plus grande de mots-clés).
L'analyse des proportions des composantes a également été
menée individuellement pour les trois dimensions (types
d'activités). Cette démarche apporte des nuances importantes
par rapport à la vision globale, présentée ci-dessus :
•
La composante « médiation » augmente en occurrence
lors d’un passage de la Surveillance à la Veille et de la
Veille à l'IE. En effet, les définitions apportent plus de
précisions et de détails sur cet aspect. Ici, cela pourrait
être expliqué par le fait que les auteurs ont surtout
travaillé sur l'aspect opérationnel de la GI (manuels, How
to, etc.) plutôt que sur l'aspect conceptuel.
•
A l'inverse, la composante « environnement » diminue en
importance. Ce à quoi on peut ajouter que la diminution
de celle de surveillance renforce cette tendance. Mais elle
reste omniprésente, ce qui semble indiquer qu'elle n'est
pas négligée pour autant ; elle est plutôt « moins
accentuée ».
•
Dans l'idée de la prédominance des travaux opérationnels,
la prise de décision est presque équivalente dans les
définitions de Veille et d'IE. Sa moindre présence en
Surveillance semble coïncider avec la description de la
Surveillance comme une activité passive, par rapport à la
Veille (active) ou l'IE (proactive).
•
Enfin, la composante des actions d’influence apparaît de
manière significative dans les définitions de l'IE, ce qui
s’accorde avec la typologie soutenue à priori. Ce type de
mots-clés, retrouvé dans les définitions de la veille (5%),
ne constitue que des mots secondaires de cette
composante.
Jusque là, ces observations apportent des précisions sur la
ventilation de chaque aspect des définitions, prises isolément,
et ne contredit pas la typologie construite à partir des travaux
de Cohen et de Rouach. En outre, Cohen présente l’évolution
du concept de Surveillance dans le temps, suggérant ainsi une
continuité entre les dimensions de la GI. Dès lors que l’on
accepte ce postulat, il est possible de mettre les observations
en perspective avec l’idée d’une accumulation progressive des
objectifs et des composantes, sans affirmer pour autant que
l’IE serait le dernier avatar du concept de Surveillance, trente
ans après son apparition dans la littérature. Ce postulat tient
donc du fait qu'il existe un lien entre les trois types d'activité et
qu’on peut les considérer de manière cumulative.
Cette perspective permet de confirmer certaines observations
déjà abordées :
•
La tendance à la diminution de la proportion des
indications sur l'environnement et de l'aspect surveillance
est confirmée. Elles restent présentes, mais sont moins
détaillées dans les formulations.
•
La tendance à l'augmentation de la proportion des
indications relatives à la médiation, l’aide à la décision et
aux actions d'influence est confirmée.
En outre, l’approche groupée apporte des précisions
intéressantes :
•
La proportion de mots-clés liés à l'environnement et à la
surveillance est beaucoup plus forte dans la définition de
la surveillance que dans les autres. Cela suggère que ces
définitions sont assez identiques sur le fond comme sur la
forme ; ce qu’une lecture globale confirmera. En outre,
les parts d’aide à la décision et de médiation sont égales.
•
Les définitions de la Veille et de l'IE sont beaucoup
moins équilibrées dans l'utilisation de leurs mots-clés. La
plus faible proportion des mots pertinents par rapport à
leur total semble indiquer une dispersion plus forte des
formulations et un équilibre moins marqué. Cela peut
sans doute s’expliquer par le nombre plus grand de
définitions disponibles et d'auteurs qui se sont essayé à en
formuler. On perçoit ici l'instabilité des connaissances,
unanimement admise dans le domaine d'étude.
Comment définir la GI ?
Constater l’instabilité théorique, et en particulier
terminologique, du domaine de la GI ne peut être une fin en
soi. Ainsi, l’objectif poursuivi lors de l’analyse des définitions
est de pouvoir mettre en évidence les composantes majeures
des trois dimensions qui constituent ce concept. Cette nouvelle
définition, du moins cette nouvelle formulation, recherchée
d’abord dans un contexte restreint d’une thèse de doctorat sur
le sujet, a pour vocation d’alimenter la réflexion sur les
fondements théoriques de la GI. La méthode choisie consiste à
exploiter les observations faites lors de l’analyse des
définitions et à les rassembler dans celle du terme « Gestion de
l’information », proposé dès lors comme terme générique pour
l’ensemble des dimensions habituellement évoquées –
Surveillance, Veille, IE.
La Gestion de l’Information (GI) :
Pour un individu ou une organisation, l'ensemble des
démarches visant à prendre en charge l'information issue de
l'environnement, pour anticiper une situation donnée ou une
tendance plus large, à un moment donné, et s’y adapter en vue
d'en tirer profit après un traitement et un relai adéquats.
Il convient de préciser cette proposition de définition :
•
Pour un individu ou une organisation, l'ensemble des
démarches… En adéquation avec l’objectif de
généralisation, la définition s’oriente clairement vers une
approche globale qui ne se restreint pas à un type
d’acteurs ou de pratiques particuliers.
•
…visant à prendre en charge l'information issue de
108
109
l'environnement,… L’objet de la maîtrise définie ici porte
sur l’information issue de l’environnement de l’acteur.
Cette formulation prend en compte les informations
provenant spontanément de l’environnement ainsi que
celles que le système de maîtrise collecte volontairement.
Il faut ajouter qu’on ne cherche pas à gérer « toute »
l’information, mais uniquement celle qui est peut-être
importante, dans le contexte en présence.
•
... pour anticiper une situation donnée ou une tendance
plus large, à un moment donné, et s’y adapter… La
définition ajoute que la gestion a pour but de permettre à
l’acteur d’adapter son comportement ou ses actes au
contexte dans lequel il se trouve. La notion d’anticipation
est ici présente. Les adaptations peuvent être de tous
ordres : décisions, actions voire absence d’action.
•
... en vue d'en tirer profit... D’une part, la définition
insiste sur l’objectif de la gestion de l’information, qui
vise à atteindre un gain. Le fait de ne pas préciser la
nature du profit élargit le spectre à d’autres
considérations que l’aspect financier. Et, comme l’a
montré Jokobiak [1991], l’absence de perte peut
constituer le « profit » dont il est question. D’autre part,
elle indique l’importance du rôle joué par l’acteur
concerné, sans le dissocier de la recherche de gain, dont
l’appropriation de l’information reste l’élément clé.
•
…après un traitement et un relai adéquats. Par
traitement, on peut entendre les actions telles que la
collecte, la sélection ou la formulation sous d’autres
formes, mais aussi la mémorisation (humaine ou
informatique), le recoupement, la déclinaison, etc. des
informations. La notion de relai permet d’insister sur le
fait qu’une information traitée n’est utile que si elle
parvient aux bons interlocuteurs, mais ne précise pas
quelle implication prend l’acteur de GI dans les processus
de décisions. En l’envisageant de la sorte, ce travail reste
adaptable aux trois dimensions du concept. Sans cette
démarche, il ne serait pas possible d’exploiter
l’information.
Cette formulation poursuit deux objectifs. D’un part, elle met
la GI en contexte. Bien que large, le champ est circonscrit avec
des indications sur les acteurs concernés (individu ou
organisation) et sur ce dont il s’agit concrètement (prise en
charge de l'information dans une situation donnée, à un
moment donné et y réagir, pour en tirer profit). On y retrouve
les deux composantes majeures, identifiées dans l’ensemble
des définitions : la médiation de l'information (prendre en
charge - collecter et diffuser – traiter de façon adaptée) et
l’environnement de l’organisation. D’autre part, elle reste
large pour constituer une définition "générique" qui pourra
être précisée, à laquelle il pourra être fait référence comme
"famille générale".
L’identification des composantes s’avère ici très utile,
puisqu’il est alors possible de préciser cette formulation en
exploitant les trois restantes : l’action de surveillance, l’aide à
la décision et les actions d’influence. Par ailleurs, l’analyse a
aussi montré que ces composantes peuvent être comprises
comme des « couches d’objectifs » et que ces dernières
« s’accumulent » lors d’un passage d’une dimension à l’autre.
Dès lors, la proposition de définition est la suivante :
La Gestion de l’Information :
Pour un individu ou une organisation, l'ensemble des
démarches visant à prendre en charge l'information issue de
l'environnement, pour anticiper une situation donnée ou une
tendance plus large, à un moment donné, et s’y adapter en vue
d'en tirer profit après un traitement et un relai adéquats. Ces
démarches sont concrétisées à l'aide d'une médiation de
l'information (recherche, collecte, traitement, distribution, etc.)
et se différencient par leur objectif principal: la détection des
menaces et des opportunités, l’aide à la prise de décision et les
actions d'influence.
Cette proposition a l’avantage de rendre compte de la
cohérence extraite de l’analyse systématique d’une collection
de définitions d’activités de GI. Les indications liées à la
médiation de l’information et à l’environnement posent le
contexte, qui est alors décliné selon les objectifs choisis par
l’acteur qui envisage ou met en place la GI. Précisons que
cette approche n’élude que temporairement l’importance de
l’aspect toujours « situé » [Quéré, 1997] de ces actions, qui
devra à terme pouvoir être pris en compte. L’intérêt de prendre
l’initiative de formuler une définition tient au fait qu’elle
pourra être utilisée de deux manières lors de recherches à
venir. D’une part, la description permettra de baliser
précisément le champ étudié, en profitant des limites du
concept de GI ainsi que de sa structuration. D’autre part, elle
contribuera à clarifier les spécificités de chacune des
dimensions du concept, contribuant ainsi à une identification
et une classification plus efficaces et transparentes des
activités, des pratiques ou encore des outils.
Le propos n’est pas ici de rejeter les travaux antérieurs. Au
contraire, ils ont servi de base à cette démarche de
formulation. Depuis 2003, et le rapport Carayon [Carayon,
2003], les professionnels semblent avoir orienté leurs efforts,
et c’est légitime, vers la mise en place de politiques fortes et
efficaces, au détriment sans doute des fondements théoriques.
Face à ce constat, le chercheur, en quête de clarté et de bases
solides, ne peut cependant faire l’économie d’une réflexion de
fond sur les concepts et les modèles auxquels cet article se
veut une contribution utile.
Bibliographie
ALEXIS, Henry, La communication des organisations à la croisée des
chemins disciplinaires, GREC/O, I3M, L’Harmattan, Paris, 2005, 152
p.
Bartoli, Jacques-André, Le Moigne, Jean-Louis (dir), Organisations
Intelligentes et Système D’Information Stratégiques, Gestion, Ed.
Economica, Paris, 1996, 284 p.
BOIZARD, Odile, Veille ou Intelligence Economique, faut-il choisir ?
Retour d’expérience, Marseille, juin 2005 (consulté la dernière fois le
28/06/2006 http://www.euromed-marseille.com/index.jsp?id=7659 )
BOUZON, Arlette, MEYER, Vincent, La communication
organisationnelle en question : méthodes et méthodologies, Org§Co,
Communication et civilisation, L’Harmattan, Paris, 2006, 210 p.
CARAYON, Bernard, Intelligence économique, compétitivité et
cohésion sociale, Rapport au premier ministre, Paris, 2003. Consulté
sur le site http://www.bcarayon-ie.com/ (le 23/06/2006)
Cohen, Corine, Veille et intelligence, Lavoisier, Paris, 2004, 286 p
Davenport, Thomas H., Working knowledge: how organizations
manage what they know, Mass: Harvard Business School Press,
Boston, 1998, 199 p
Goria, Stéphane, Knauf, Audrey., David, Amos., Geffroy, Philippe.,
Le processus d'Intelligence Economique : Une étude selon le point de
vue de l'infomédiaire et des problématiques de recherche
d'information, Communication avec actes. Colloque ATELIS
ATELiers d'Intelligence Stratégique, Poitier, 24/01/2005, via
ArchiveSIC. Dernière consultation : le 23/06/2006
GUYOT, Brigitte, Système d’information : construction d’un objet de
recherche,
in :
DELACAMBRE,
Pierre,
Communications
organisationnelles : objets, pratiques, diapositifs, Rennes, Presses
universitaires de Rennes, 2000, 330 p.
Francart, Loup, Infosphère et intelligence stratégique : les nouveaux
défis, Economica, 2002, Paris, 386 p.
Jakobiak, François, Pratique de la veille technologique, Ed.
D’Organisation, Paris, 1991, 232 p.
Le Moigne Jean-Louis, Les systèmes de décision dans les
organisations, PUF 1974, 238p.
Le Moigne Jean-Louis, La théorie du système général, PUF, Paris
1977, 338p
Levet, Jean-Louis, L'intelligence économique : mode de pensée, mode
109
110
d'action, Coll. L'intelligence économique, Economica, Paris, 2001,
154 p.
Martre Henri (prés.), Commissariat général du plan : Rapport du
groupe Intelligence économique et stratégie des entreprises, La
Documentation française, Paris, 1994, 213 p
MEINGAN, Denis, LEBO, Isabelle, Maîtriser la veille pour préparer
l’Intelligence économique, Livre blanc publié par Knowlegde Consult,
http://www.knowledgeconsult.com/fr/, septembre 2004, 72 p.
PORTER, Michael, Competitive advantage : creating and sustaining
suprior performance, Free Press, New York, 1985, 557 p.
QUéré, Louis, « La situation toujours négligée ? », in : Réseaux, n°85,
Cnet, 1997.
L’Impact des TIC à l’école : émergence de
nouvelles pratiques de formation ?
Aperçu d’un dispositif de communication
multicanal (LEAD108)
pour le travail collaboratif instrumenté en
classe.
DUMEZ FEROC Isabelle
LEAPLE-CNRS / Université Paris 5,
[email protected]
Introduction
Il peut apparaître surprenant à certains, voir
choquant pour d’autres, de trouver dans ces pages qui traitent
des usages organisationnels des technologies de l’information
et de la communication un propos sur l’école, et plus
précisément sur la classe. Est-il en effet convenable de penser
l’École,
cette
institution
vénérable,
comme
une
« organisation » à part entière et peut-on véritablement
envisager la structure de fonctionnement qu’est la classe du
premier et du second degrés sous l’angle sociologique et
économique de l’organisation du travail ?
L’École du XXIème siècle reste une forme sociale établie
par la loi, relevant du droit public et sous le contrôle de l’État.
Bien que cette institution demeure le fruit d’une assez longue
tradition pédagogique imposant un modèle scolaire, elle ne
s’inscrit pas en reste des contingences économiques. Afin de
faire face à la « crise de l’école » devenue structurelle, et de
pouvoir respecter un « cahier des charges » de plus en plus
complexe malgré les inévitables restrictions en ressources
humaines et matérielles, les États doivent « rationaliser »
l’École. Une rationalisation de son administration, mais
également de son fonctionnement technique et pédagogique.
Bien que la notion de « rentabilité » parvienne difficilement à
faire écho dans le monde de l’éducation (et en particulier en
formation initiale où elle apparaît toujours incongrue), et
même si la mesure des performances - c’est-à-dire l’évaluation
des acquis des élèves, et des compétences des enseignants reste problématique voire taboue, il ne semble pas moins
nécessaire de chercher à optimiser davantage l’efficacité du
personnel (enseignant), d’améliorer la coordination du travail
(d’enseignement,
de
transmission,
de
formation,
d’animation…et d’apprentissage), bref de « manager » l’École.
Quivy, Raymond, Van Campenhoudt, Luc, Manuel de recherche en
sciences sociales, 2ème éd., Psycho sup, Ed. Dunod, Paris, 1995, 288
p.
Rouach, Daniel, La veille technologique et l'intelligence économique,
1ère éd., Presses universitaires de France, Paris, 1996, 126 p.
SALLES, Maryse, Problématique de la conception de méthodes pour
la définition des Systèmes d’Intelligence économiques, in : Revue
d’Intelligence économique, n°6-7, Octobre 2000.
SUTTER, Eric, Le management de l’information : Présentation
commentée du document de normalisation X50-185, Coll. L’Essentiel
sur…, ADBS Editions, Paris, 2005, 60 p.
Un management indispensable pour que l’institution réussisse
à mieux gérer et organiser ses ressources humaines, techniques
et financières, en développant des stratégies respectueuses de
ses valeurs fondatrices tout en parvenant à satisfaire davantage
les besoins d’éducation des élèves et les demandes des
familles.
Il ne semble donc pas hors propos de penser l’École sous
un angle organisationnel, au vu qu’à sa façon l’institution se
doit d’atteindre les objectifs qu’elle détermine publiquement.
L’éducation, la formation, l’enseignement et même
l’apprentissage peuvent donc relever d’une problématique du
travail au sens large. Si cette conception est acquise du côté de
l’enseignement reconnu comme une activité professionnelle,
elle fait également son chemin depuis plusieurs années du côté
des apprenants à qui est accordée à travers la notion émergente
de « métier d’élève » une représentation renouvelée de
l’activité d’apprentissage (Perrenoud, 1994).
L’école modernisée : la remise en question du schéma
d’enseignement-apprentissage traditionnel
L’institution éducative française, à l’instar de la majorité
des institutions éducatives européennes, se caractérise encore
par la permanence d’un modèle scolaire traditionnel, dans
lequel
s’impose
un
dispositif
d’enseignement et
d’apprentissage en présence, configuré en une structure
cellulaire stable qui ordonne l’organisation sociophysique de
la classe. Ainsi, le plus souvent le cours a lieu dans un espace
fermé sous la forme d’un face-à-face (disposition de type
frontal) entre un enseignant et un public d’apprenants organisé
en groupe classe. Même si ce modèle canonique du cours dit
magistral perdure encore dans de nombreux pays comme la
France, d’autres formes d’enseignement sont tout de même
apparues au cours du XXème siècle. Par exemple, des
pratiques éducatives de travail collaboratif, soutenues
notamment par les théories d’apprentissage sociocognitives109
ont progressivement émergé. Des pratiques de formation qui
permettent de sortir du schéma linéaire de la transmission des
savoirs formels dans lequel le rôle de l’élève se réduit à celui
de réceptacle, et qui valorisent une pédagogie de
l’accompagnement dans des situations d’apprentissage110 de
savoirs plus informels et de compétences. Dans une certaine
mesure, ces nouvelles pratiques de plus en plus légitimées, qui
valorisent l’individualisation et l’autonomie des agents
sociaux, se font l’écho des mutations socioculturelles du
XXème siècle largement perceptibles dans l’organisation du
travail.
Même si certains voudraient encore maintenir cette
institution dans un sanctuaire protégé, l’École a montré durant
108
Projet européen STREP, inscrit au 6ème plan Information Society Technology
pour la période de 2005-2008 sous l’intitulé « LEAD - Technology-enhanced
learning and problem-solving discussions : Networked learning environments in
the classroom ».
Site web : http://lead2learning.org
109
de L. Vygotsky, par exemple.
110
Notamment en France, avec le courant pédagogique de l’École Nouvelle
soutenu par Célestin FREINET.
110
111
ces deux dernières décennies qu’elle sait évoluer et s’adapter à
la société moderne. Ainsi, un ensemble de technologies
informatiques sont parvenues à s’intégrer aux environnements
éducatifs traditionnels dans l’enseignement primaire et
secondaire, sur le plan quantitatif et qualitatif111, en
provoquant des changements d’ordre organisationnel et
pédagogique (Pouzard 1997). L’introduction des technologies
dans le système éducatif112 va à la fois dans le sens d’une
rationalisation des ressources et des moyens d’enseignement
(afin de pallier le manque de personnel face à la massification
et la diversification nouvelles de la scolarité), et dans le sens
des exigences modernes de formation, telle la maîtrise des
outils technologiques, l’autonomisation et l’adaptabilité de
l’élève (Baron, Bruillard & Lévy 2000 ; Chaptal 2003). Ainsi,
l’intégration des usages des TIC redéfinit le métier
d’enseignant et le métier d’élève en introduisant de nouvelles
exigences et en changeant les conditions de travail.
Aujourd’hui, avec ces outils technologiques, l’École
semble pouvoir disposer de moyens inédits susceptibles de
l’aider à apparaître comme un partenaire de communication
plus présent, à s’intégrer à la « société de l’information ». En
effet, si l’institution s’inscrit toujours dans une posture de
réception de l’information - les usages dominants d’Internet en
milieu scolaire restent la consultation de pages Web (Bevort &
Bréda 2001) - elle est également capable d’adopter une
posture de production, par exemple à travers la publication en
ligne grâce à des sites Web d’école ou avec les récents blogs
scolaires (Audran 2000 ; Féroc-Dumez 2005).
Dorénavant, avec la mise en avant de valeurs provenant de
l’univers de la formation professionnelle et du management, le
modèle éducatif dit traditionnel semble donc partiellement
devoir être remis en question. Les missions de l’École
s’enrichissent de problématiques nouvelles et les situations
éducatives en « face-à-face » propres à l’enseignement
scolaire, qu’elles s’inscrivent ou non dans des orientations
pédagogiques renouvelées, s’en trouvent donc quelque peu
modifiées113.
L’impact des technologies sur le travail d’enseignement et
le travail scolaire : une évolution lente mais certaine
L’École est une organisation dont le fonctionnement et la
légitimé reposent sur un contrat social public dans lequel tous
les acteurs engagés doivent trouver leur compte, qu’il s’agisse
des administrateurs, des enseignants, des élèves ou des
familles. Il y est indispensable qu’un équilibre harmonieux
s’établisse dans la mobilisation des ressources internes, que les
investissements financiers de l’État soient justifiés, que l’usage
des équipements techniques (ordinateurs et connexion au
réseau, par exemple) soit reconnu utile, que la gestion des
personnels (formation des enseignants, etc.) soit pertinente,
que les élèves apprennent toujours plus et mieux. Même si
certains veulent toujours l’ignorer « l’industrialisation de
l’enseignement » est déjà là depuis quelques temps ; elle a
débuté dès l’arrivée des premiers supports pédagogiques (le
livre illustré) et s’est développée encore avec la scolarisation
de l’informatique. Dès les années 80, avec l’entrée des
ordinateurs dans le système éducatif français (notamment avec
le plan « I.P.T.114 »), la division du travail a commencé à
111
Source pour la France : Éducation Nationale (Direction de l’Evaluation et de
la Prospective), Direction de la Technologie – SDTICE. Source pour l’Europe :
banque de données EURYDICE.
112
Des premières applications de l’informatique de l’enseignement programmé
des années 70 et 80 à la récente institution du Brevet informatique et internet
(B2i).
113
Comme le soulignent, par exemple, la Loi d’orientation de 1989 et le
B.O.E.N. n°18 du 1er mai 1997.
114
Plan d’équipement des établissements scolaires français « Informatique Pour
tous » mis en place par L. Fabius en 1985.
s’instaurer entre les enseignants et les machines. Si la
rationalisation des ressources s’inscrit dans une logique
économique de réduction du coût salarial, elle répond aussi à
des besoins d’ordre socioculturel. En effet, les représentations
sociales de l’enseignement ont changé. Les familles ne veulent
plus de l’enseignement de masse mais désirent des situations
d’apprentissage davantage personnalisées, individualisées,
adaptées au profil socio-cognitif des enfants et des jeunes.
Quant aux élèves baignés de culture technologique et
audiovisuelle, la plupart d’entre eux éprouvent de réelles
difficultés à apprendre dans les situations traditionnelles du
cours magistral en profond décalage avec leur mode de vie. Il
en naît un sentiment de rupture qui favorise la perte de sens de
l’École. Les élèves d’aujourd’hui sont davantage enclins à
travailler, à s’approprier les contenus d’apprentissage et les
compétences dans des situations éducatives renouvelées, avec
des méthodes d’enseignement « mixtes » mêlant des supports
de différente nature et permettant de varier les modes et les
rythmes d’apprentissage. Le temps scolaire d’antan ne peut
plus exister et l’école n’est plus un lieu de culture privilégié.
Les médias (traditionnels ou nouveaux) n’ont même plus un
rôle d’école parallèle (Porcher 1974) : incorporés dans les
modes de vie des élèves, ils ont pénétré dans l’école et ne
peuvent plus être ignorés. Bien des enseignants perçoivent ces
changements qualitatifs et sont conscients que l’École, tout
comme leur profession, connaît un défaut de représentation
positive résultant de ce décalage. La plupart d’entre eux savent
reconnaître la nécessité d’une évolution des pratiques
éducatives vers une plus grande prise en considération des
valeurs culturelles des élèves, sans toutefois avoir les moyens
de la mettre en œuvre. Ainsi même l’installation d’un
ordinateur dans la classe, sensée les aider à accompagner ces
mutations, pose parfois plus de problèmes qu’elle n’en résout.
Avec les TIC, les pratiques de formation qui déterminent la
forme du travail scolaire sont ainsi l’objet d’un
questionnement nouveau et urgent.
Aujourd’hui dans le système éducatif français,
l’équipement informatique des salles de classe s’inscrit dans
une logique essentiellement fonctionnelle et techniciste.
L’outil est présenté comme une aide à l’enseignement,
susceptible d’enrichir l’environnement pédagogique de la
classe, et ce quels que soient les disciplines et les niveaux
scolaires. C’est donc l’approche intégrée, le modèle de
l’intégration globale qui a été finalement choisi.
L’informatique n’est plus sensée être l’objet d’un
enseignement disciplinaire, mais une compétence transversale
à acquérir tout au long de la scolarité. Cependant la
focalisation insistante sur la maîtrise technologique des TIC
finit parfois par appauvrir la mission de l’École plus qu’elle ne
la renouvelle. Si des enseignants peinent encore à utiliser les
machines, les élèves eux ont de plus en plus un usage familier
des ordinateurs et du réseau. L’usage des technologies ne peut
donc plus être une finalité pédagogique car avec
l’appropriation des TIC son sens s’étiole peu à peu. Deux
forces de proposition pédagogique semblent dès lors pouvoir
s’affirmer. S’il est convenu que les médias et les médias
électroniques sont bien des instruments pédagogiques (on peut
enseigner / apprendre avec les médias et éduquer les élèves
« par » les médias), il semble à présent opportun de resituer ces
outils comme objets d’enseignement (en étudiant leurs modes
de fonctionnement, etc.) et de s’orienter davantage vers une
éducation aux médias115. Il apparaît également nécessaire de
revenir à une pédagogie du projet en s’interrogeant sur la
pertinence réelle des usages en milieu scolaire, en mettant les
TIC au service d’autres formes d’enseignement et
115
Approche proposée par le Centre de Liaison de l’Enseignement et des
Moyens d’Information (Ministère de l’Education nationale) , crée en 1983 par J.
Gonnet.
111
112
d’apprentissage : non plus seulement pour promouvoir
l’individualisation mais aussi pour aider à la « socialisation »
des élèves, en offrant des possibilités inédites de travailler
ensemble, d’apprendre ensemble en communiquant autrement
grâce à ces outils. S’il n’est pas attesté que la technologie
permette d’apprendre davantage ou mieux, ni même qu’elle
mène
inévitablement
à
l’innovation
pédagogique
(Moeglin 1996 ; Cuban 2001), il est certain qu’elle permet
d’apprendre différemment, en utilisant des supports d’un
nouveau genre et en mobilisant des méthodes nouvelles.
A l’école (donc dans des situations pédagogiques en coprésence), les technologies en réseau autorisent des pratiques
nouvelles de communication dans la classe et hors de la classe.
Elles facilitent la publication, engagent à la mutualisation des
ressources et permettent la mise en oeuvre de nouvelles
configurations d’enseignement et d’apprentissage où les
méthodes se métissent, empruntant parfois à l’enseignement à
distance des outils plus ou moins adaptés. Ainsi, si l’utilisation
des TIC favorise le développement de compétences
transversales techniques et cognitives et conduit souvent à des
décloisonnements disciplinaires intéressants, ces outils
permettent aussi d’intégrer aux formules présentielles
classiques, des modules d’apprentissage plus individualisés,
adaptables en temps et en contenu, en fonction des contextes et
des personnalités des élèves. Dès lors on remarque qu’au sein
d’un dispositif d’enseignement instrumenté, la relation
pédagogique tend à se transformer, à devenir plus horizontale,
moins hiérarchique et à susciter davantage d’interactions voire
l’émergence d’une pédagogie du « côte à côte ».
Désormais le travail à l’école, c’est-à-dire l’acte
d’enseignement et l’acte d’apprentissage ont tendance à
s’inscrire dans un temps pédagogique plus court et moins
durable, selon d’autres modalités organisationnelles, spatiales
et temporelles. Les TIC remettent donc en question l’unité
d’action, de temps et de lieu de l’enseignement scolaire
traditionnel et redéfinissent la distribution des rôles à
l’intérieur de la classe. Avec l’usage des réseaux (Internet /
Intranet), la position sociale des acteurs de l’école change
également. D’une part, l’enseignant est moins isolé, il partage
sa classe et devient de plus en plus un animateur ou un tuteur.
D’autre part, le groupe classe perd de sa pertinence et se
redéfinit temporairement soit en un groupe plus large de
« communauté éducative » (lors d’une coopération avec
d’autres classes, par exemple), soit en ensembles plus réduits
(avec du travail en petits groupes). Ces nouvelles organisations
sociales sont susceptibles de permettre aux élèves de travailler
autrement en étant davantage acteurs de leur propre
apprentissage, en multipliant leurs liens identitaires
d’appartenance sociale (Féroc-Dumez, 2005). Médiatisée par
les supports numériques, la communication éducative habituellement synchrone lors d’une situation classique de
face-à-face - peut ainsi s’enrichir d’une dimension asynchrone
supplémentaire (avec l’usage des forums, par exemple).
Toutefois, de nombreuses recherches116 montrent que
l’usage pédagogique des TIC n’entraînent pas de facto une
profonde mutation des processus d’apprentissage et des
méthodes d’enseignement (surtout dans les contextes éducatifs
de co-présence), mais qu’enseignants et élèves utilisent de plus
en plus les outils de communication selon des modes
d’enseignement / apprentissage mixtes et variés qu’il apparaît
nécessaire d’étudier. Il apparaît donc important de tenter de
comprendre comment se développent les nouveaux processus
d’apprentissage instrumentés, afin de pouvoir repenser les
modèles de formation et les dispositifs pédagogiques intégrant
les TIC, et d’adapter ou de créer des outils théoriques et
pratiques pertinents pour l’école du XXIème siècle et les
nouvelles modalités de son « travail ».
3. Le travail collaboratif instrumenté à l’école : proposition
d’outils pour une pratique de formation innovante avec le
projet LEAD
Dans le domaine de l’éducation, la plupart des recherches
sur les activités coopératives médiatisées par l’ordinateur ont
tendance à se focaliser sur un modèle archétype de
collaboration en ligne correspondant à des contextes
d’apprentissage à distance (classe virtuelle, par exemple). Ce
modèle relativement limité ne semble pourtant pas le plus
approprié au paysage éducatif européen actuel, au sein duquel
les situations de formation en présentiel restent les plus
fréquentes. Les travaux dont nous aimerions présenter ici un
bref aperçu (dans l’attente de résultats plus signifiants)
s’inscrivent dans le cadre d’un projet de recherche européen
intitulé « LEAD » initié au début de l’année 2006, auquel
participent des chercheurs issus de différents pays (France,
Italie, Pays-Bas et Royaume-Uni) et d’horizons disciplinaires
variés (psychologie, sciences de l’éducation, sciences du
langage, communication et informatique). Cette recherche se
démarque d’un grand nombre de travaux car elle s’intéresse à
des situations d’enseignement en co-présence où les
interactants (dans le cas présent il s’agit d’élèves) travaillent
ensemble en co-présence, en interagissant d’une manière
« multicanale », c’est-à-dire par la combinaison de la
communication parlée en face-à-face et la communication
écrite (passant par un réseau local, grâce à un groupware). Ce
type de situation est de plus en plus fréquent dans le monde de
l’entreprise où les participants, placés autour d’une table de
réunion devant des ordinateurs individuels, se servent d’outils
informatiques (de type forums ou outils de conférences) pour
la génération d’idées (brainstorming), l’élaboration de
stratégies et la prise de décision. Dans notre cas, il s’agit
d’explorer la transposition possible de cette démarche mise en
œuvre en entreprise, au monde de l’école. Pour ce projet,
l’équipe de recherche européenne s’est ainsi donnée un double
objectif. D’une part, il s’agit de parvenir à penser un modèle
théorique « intégré » de l’activité coopérative, dont on suppose
qu’elle se réalise tout à la fois à travers le canal informatique et
l’interaction parlée en face-à-face. D’autre part, il s’agit
d’élaborer des outils informatiques et pédagogiques
« multicanaux », susceptibles de favoriser le travail coopératif
au sein de petits groupes d’élèves dans les classes de
l’enseignement primaire et secondaire d’Europe, pour
effectuer une variété de tâches scolaires (notamment pour
soutenir des activités de débat / argumentation et d’écriture
collective de textes).
Aujourd’hui, le projet LEAD est dans une phase initiale.
Comme l’élaboration des outils nécessite une prise en compte
des besoins pédagogiques, les chercheurs de l’équipe
procèdent à des premières études de cas en organisant des
observations et des expérimentations pédagogiques dans des
classes de l’enseignement primaire et secondaire, avec
différents outils de communication médiatisée déjà
développés117.
A
partir
du
recueil
d’interactions
communicatives de différentes natures - interactions en faceà-face partiellement médiées par l’ordinateur à travers
117
116
Consulter par exemple, le rapport canadien Rescol/Schoolnet, L’Apport des
nouvelles technologies de l'information et de la communication (NTIC) à
l'apprentissage des élèves du primaire et du secondaire, Université Laval &
Université MCGill, Réginald Grégoire Inc., Robert Bracewell, Thérèse Laferrière,
août 1996
Disponible sur : http://www.tact.fse.ulaval.ca/fr/html/apport/apport96.html
Sur le plan informatique, le projet LEAD s’appuie en partie sur des outils
existants comme par exemple, le logiciel DREW (Dialogical Reasoning
Educational Web tool) élaboré par l’Ecole des Mines de St Etienne (ARMINES)
lors d’un précédent projet européen baptisé SCALE en les faisant évoluer grâce
aux résultats des expériences menées dans des écoles des pays participant au
projet.
Disponible sur : http://drew.emse.fr
112
113
plusieurs canaux textuels (chat, forum) ou des représentations
graphiques (grapheur), cette phase exploratoire vise à
constituer un corpus primaire de données sémiotiques verbales
et non-verbales (discursives, paratextuelles, proxémiques...).
Le Centre National de la Recherche Scientifique travaillera
essentiellement sur l’élaboration de ces méthodes de recueil,
de transcription et d’analyse de corpus intégrant ces
interactions communicatives mixtes.
Une première étude de cas a déjà été conduite en France
par l’équipe du CNRS. Cette étude pilote menée en collège
lors de cours d’éducation aux médias s’est organisée en deux
temps : d’abord une séance d’observation de pratiques
collaboratives
existantes
(sans
utilisation
d’outils
technologiques) puis une séance d’expérimentation du logiciel
DREW pour une tâche de discussion et d’écriture collective en
groupe de trois élèves. Hormis les difficultés matérielles liées
aux conditions d’utilisation des réseaux informatiques dans les
établissements scolaires français (protection et sécurité),
l’analyse de ce premier corpus permet de dégager de possibles
indicateurs. Ainsi, il apparaît important d’observer le jeu de la
distribution des interactions en face-à-face et instrumentées en
lien étroit avec les contraintes techniques et l’organisation
spatiale des lieux. On s’aperçoit également qu’en phase
d’appropriation certains outils peuvent être « détournés » de
leur usage attendu. Par exemple, le chat apparaît comme une
aide mineure au management de la tâche. Le dialogue
développé grâce à cette technologie semble en effet avoir
essentiellement une valeur socio-relationnelle, en réalisant
principalement une fonction phatique de contact entre les
élèves - fonction cependant nécessaire à la co-construction du
lien social indispensable à la collaboration.
Conclusion
Il nous semble d’ores et déjà que la démarche entreprise au
sein du projet européen LEAD peut apporter d’importants
éléments de réflexion. Sur le plan de l’analyse des interactions,
l’analyse comparative des corpus devrait permettre de dégager
des indicateurs utiles d’une part pour évaluer la qualité du
dialogue assisté par l’ordinateur et d’autre part pour identifier
les modalités de la compréhension et de la co-élaboration du
savoir que permettent de réaliser la discussion, la collaboration
et la résolution de problèmes instrumentées. D’autre façon, la
démarche d’analyse linguistique et sémio-contextuelle
envisagée semble également autoriser une description des
relations qui se construisent entre les différents types
d’espaces constitutifs de la discussion (l’espace du problème,
celui du dialogue et celui du sens) et permettre de dégager des
formes de coopération distinctives, saisissables à travers
certaines dimensions de la distribution des rôles (Baker 2002 ;
Quignard, Baker, Lund, & Séjourné 2003). Associés à
différentes formes de coopération, plusieurs mécanismes
d’apprentissage semblent pouvoir être repérés et le rôle que
peut jouer l’enseignant au sein de ce dispositif pourra être
évaluer. A partir de l’ensemble de ces approches, en restant à
l’écoute des besoins et en adoptant une approche pragmatique
des contextes éducatifs européens, les chercheurs impliqués
dans le projet LEAD envisagent ainsi la construction de
modèles analytiques de la collaboration instrumentée en milieu
scolaire, utiles pour adapter à l’école des outils technologiques
déjà pertinents pour l’entreprise et susceptibles d’aider à la
rationalisation et à l’opérationnalisation d’une partie du travail
scolaire.
Bibliographie
Audran, J., « Importance d’un site Web sur la construction d’une
identité institutionnelle à l’école primaire », Actes du 3ème congrès
AECSE Actualités de la recherche en Education et formation,
Bordeaux, 2000.
Baker, M.J., « Forms of cooperation in dyadic problem-solving »,
Revue d'Intelligence Artificielle, 16, N°4-5, 2002, pp. 587-620.
Baron, J-L., Bruillard, E. & Lévy J-F., Les Technologies dans la
classe : de l’innovation à l’intégration, INRP/EPI, 2000.
Bevort, E. & Bréda, I., Les Jeunes et Interne. Représentations, usages
et appropriations, Paris, CLEMI, 2001.
Chaptal, A., L’Efficacité des technologies éducatives dans
l’enseignement scolaire : analyse critique des approches françaises et
américaine, Paris, L’Harmattan, 2003.
Cuban L., Oversold and underused : Computers in the classroom,
Cambridge (Mass. E-U), Harvard University Press, 2001.
Féroc-Dumez I., « Les sites Web d’école et les journaux scolaires sur
Internet : fonctions et motifs de la publication scolaire en ligne. »,
Actes du colloque international L’expression lycéenne : enjeux et
contenus des journaux produits par les jeunes (Sorbonne, 13 & 14 mai
2005), in Les Cahiers du CREDAM (Centre de recherche sur
l’éducation aux médias), n°5, novembre 2005, pp. 145-153.
Moeglin P., « Multimédia et éducation. Le démon de la
convergence », Cahiers de la Maison de la Recherche, Lille III, 1996.
Perrenoud, P., Métier d'élève et sens du travail scolaire, Paris, ESF,
1994, 4e éd. 2000.
Porcher, L., L’Ecole parallèle, Paris, Larousse, 1974.
Pouzard G. « Pourquoi l’école changera », La revue de l’EPI, 87,
Paris, septembre 1997, Paris, p. 71-76.
Quignard, M., Baker, M., Lund, K. & Séjourné, A., « Conception
d'une situation d'apprentissage médiatisée par ordinateur pour le
développement de la compréhension de l'espace du débat », Actes de
la conférence EIAH 2003 (Strasbourg, 15, 16, 17 avril 2003), Édités
par Desmoulins C., Marquet P. et Bouhineau D., (INRP-ATIEF :
http://archiveseiah.univ-lemans.fr/EIAH2003/), 2003, pp. 355-366.
113
114
« Une activité judiciaire sur-mesure ? Le cas des audiences à distance entre la cour d’appel
de Paris et les juridictions de Saint-Pierre-et-Miquelon »
Laurence Dumoulin
GAPP / ENS Cachan
[email protected]
et Christian Licoppe
ENST Paris,
[email protected]
Qu’est-ce qu’une audience à distance ? Il y a dix ans,
personne ne le savait. Même aujourd’hui, l’idée selon laquelle
la justice peut être rendue à distance n’est pas commune, ni
pour le grand public, ni pour les professionnels du secteur
judiciaire. Toutefois, ceux qui ont déjà participé à des
audiences à distance ont une petite idée sur la question et sont
en mesure d’énoncer des recommandations sur ce qu’il faut
faire ou ne pas faire, quelles sont les règles qu’il convient de
respecter, règles juridiques mais aussi "bonnes façons de faire"
en situation, que ce soit à l’occasion de ces audiences ou bien
lors des séances de formation qu’ils animent. Sous cet angle,
les audiences à distance peuvent être vues comme une forme
judiciaire en émergence, une innovation organisationnelle
qu’il est possible d’analyser in the making, à travers ses modes
de constitution, ses logiques et ses acteurs.
Pour le néophyte, il n’est pas évident de se représenter ce
que sont ces audiences dans lesquelles tous les acteurs ne sont
pas physiquement présents. Les audiences à distance que nous
évoquons ici sont des situations de justice dans lesquelles les
acteurs du procès sont répartis en deux sites géographiques
différents, reliés entre eux par un dispositif de communication
audiovisuelle (la visioconférence) et utilisant tout un ensemble
de technologies de communication (téléphone, fax, e-mail) qui
permettent la coordination des acteurs et la transmission de
documents. La répartition des protagonistes entre les deux
sites peut former des configurations variables : le procureur est
toujours localisé à Saint-Pierre-et-Miquelon ; les juges et le
greffier sont toujours ensemble, le plus souvent à Paris ; quant
aux avocats, parties civiles, accusés et victimes, ils peuvent
être dans l’un ou l’autre de ces deux lieux, et la palette des
distributions possibles est très étendue – de plus en plus
même, au fur et à mesure que les acteurs découvrent les usages
du dispositif.
L’utilisation de la visioconférence à des fins de production
judiciaire a été inventée pour régler les problèmes posés par le
statut dérogatoire de l’organisation juridictionnelle de
l’archipel de Saint-Pierre-et-Miquelon et le faible nombre de
magistrats en poste sur place. Un certain nombre d’affaires
judiciaires ayant trait à des faits commis sur l’archipel donnent
ainsi lieu à des audiences à distance, à raison d’un rythme de
croisière d’une vingtaine par an depuis quelques années.
Ce qui à bien des égards pourrait être considéré comme un
"micro-objet"118 nous apparaît justement comme un excellent
cas d’étude pour tenter de comprendre comment naissent de
nouvelles formes judiciaires, quels sont les circuits
qu’emprunte l’innovation. Par quels processus de cadrage les
acteurs s’efforcent-ils de rendre l’innovation acceptable en
contexte judiciaire ? Quelle place les textes et les logiques
juridiques occupent-ils dans ces processus et finalement
comment se nouent légalité, légitimité et réalité dans ces
pratiques judiciaires en émergence ?
En nous appuyant sur des matériaux de type historique
(archives sur les processus de préparation des textes juridiques
encadrant les audiences à distance) et ethnographique
(principalement entretiens et observations de scènes
d’audiences à distance) recueillis dans le cadre d’une
recherche collective119, nous montrerons comment la situation
118
En raison de la rareté des pratiques et du volume d’affaires concernées, du
peu de publicité fait autour de ces expériences, du caractère pour le moins lointain
de Saint-Pierre-et-Miquelon, collectivité territoriale d’outre-mer elle-même
méconnue.
119
Ce travail a été réalisé dans le cadre d’une recherche pluridisciplinaire sur
« justice et technologies », financée dans le cadre de l’Action concertée incitative
« Techniques, Terrains, Théories » du ministère de la Recherche. Nous
remercions Jean-Charles Froment, Christian Mouhanna et Jean-Claude Thoenig
pour leurs commentaires et leurs critiques.
114
115
spécifique de l’audience est travaillée par le recours à un
dispositif technologique c’est-à-dire quels sont les ajustements
que produisent les acteurs judiciaires (magistrats, avocats,
greffiers…) qui en sont les promoteurs et premiers utilisateurs
pour rendre l’exercice du « jugement à distance » acceptable et
conforme aux canons du milieu judiciaire. Dans l’espace
forcément limité de ce papier, nous n’évoquerons toutefois pas
tous les mécanismes et types d’ajustements qui permettent de
fonder en légitimité cette nouvelle pratique. Nous nous
contenterons de décrire et d’analyser ce qui nous apparaît
comme étant le plus spécifique au secteur judiciaire.
Dès lors que l’on ne considère pas la justice comme étant
exclusivement réglée par les dispositifs juridiques formels (les
textes juridiques, dans leur forme législative ou réglementaire)
mais que l’on n’évacue pas non plus le rôle particulièrement
important de la référence juridique qui « imprègne » de toute
part ce monde, on s’autorise à voir comment la dynamique
complexe de l’innovation, de sa production, de son
institutionnalisation et de sa légitimation se met en place. En
l’occurrence, les dispositifs formels sont des ressources pour
les acteurs de l’innovation qui peuvent s’y référer pour asseoir
leurs pratiques mais aussi pour laisser penser à une sorte
d’imperméabilité de la justice à ce que pourraient être des
effets pervers, perturbants, envahissants des technologies. En
milieu judiciaire peut-être plus qu’ailleurs, innover c’est
surtout rassurer ses partenaires sur l’innocuité de ce qui est
entrepris. De ce point de vue, la référence à des dispositifs
formels fournit des ressources non négligeables : le droit est
invoqué et vécu par certains comme un antidote à la
technologie. Mais ce rôle des textes juridiques doit être
relativisé lorsque les acteurs sont en situation d’audience à
distance. Tous les comportements des acteurs judiciaires ne
sont pas constamment réglés par le droit, loin s’en faut !
Localement et situationnellement, les acteurs qui pratiquent les
audiences à distance s’ajustent les uns aux autres, à travers des
comportements verbaux et non verbaux, ils stabilisent la
situation et les cadres de l’activité, en établissant des
compromis sur des façons de faire acceptables dans le contexte
judiciaire. Regarder de près quelques uns de ces ajustements
nous permettra de montrer qu’à travers leurs pratiques
ordinaires, ces acteurs produisent des normes judiciaires
d’action.
I / Le droit, un pouvoir d’antidote aux effets pervers de la
technologie ?
Le secteur judiciaire peut être considéré comme le monde
du droit par excellence. « Instituée par le droit, juridiquement
habilitée à mettre en œuvre le droit et, par conséquent à en
produire », la fonction judiciaire « est de part en part
imprégnée par le droit. » (Lévy et Zauberman, 1997, p.137)120.
Comment donc se forment de nouvelles pratiques judiciaires
comme celle de l’audience à distance, comment sont-elles
organisées, instituées et quel rôle les dispositifs juridiques
formels et les professionnels du droit jouent-ils dans ces
processus ?
Tout d’abord, on peut avancer assez classiquement que la
production de textes juridiques formels apparaît comme un des
dispositifs privilégiés de cadrage de l’innovation judiciaire, au
sens d’un certain cadrage du monde des possibles et des
permis. Les textes adoptés121 et publiés au Journal officiel qui
organisent l’utilisation de la visioconférence dans les
audiences des juridictions de Saint-Pierre-et-Miquelon offrent
la possibilité de réaliser de telles audiences et indiquent quels
120
Cette citation concerne la fonction de police judiciaire mais les auteurs
soulignent eux-mêmes qu’elle est applicable à d’autres fonctions régaliennes,
comme la justice par exemple.
121
sont les principes qui doivent alors s’appliquer. En ce sens, ces
textes proposent un cadre juridique, c’est-à-dire une série de
règles censées structurer ou plus exactement orienter les
pratiques des acteurs. Le droit n’est pas vu ici comme un
ensemble d’injonctions contraignantes et sanctionnées qui
susciterait une application stricte mais bien plutôt comme des
dispositions dont les acteurs judiciaires tiennent compte et par
rapport auxquelles ils orientent leurs pratiques (Lascoumes et
Serverin, 1985). Ils peuvent s’écarter volontairement de la
règle juridique, s’en distancier, ne pas l’appliquer, mais ils la
connaissent et se situent par rapport à elle. Et ce d’autant plus
que certains de ceux qui mettent en œuvre les audiences à
distance ont participé au processus de préparation des textes.
Ainsi en est-il de l’interdiction faite par le décret d’enregistrer
les débats judiciaires qui ont lieu par visioconférence (Art. R.
952-4 al. 2 du COJ) qui est connue et respectée alors même
que les moyens techniques permettraient d’effectuer
l’enregistrement ou bien de la question du cryptage dont le
même technicien nous explique qu’il est obligatoire mais qu’il
est impossible techniquement à mettre en place actuellement,
compte tenu des types de cryptage requis.
Mais ensuite et plus encore, le droit est présenté comme ce
qui protègerait les échanges judiciaires de possibles
débordements provoqués par l’usage des technologies. Les
acteurs mettent en avant l’idée d’une certaine exceptionnalité
de la justice, laquelle ne serait pas comparable à d’autres
espaces sociaux d’utilisation des technologies (Commaille,
1994). Le débat judiciaire serait par nature différent d’autres
situations d’interactions : l’un le distingue d’une réunion 122, un
autre d’une conversation, un troisième d’un débat télévisé 123.
« [Le décalage d’une seconde entre l’émission et la réception]
n’est pas gênant on est dans le débat juridique, on n’est pas
dans des débats polémiques comme à la télé, on pose une
question et on laisse un temps raisonnable aux personnes pour
répondre. »124
Le caractère très ritualisé, très codifié du procès
empêcherait ainsi que le dispositif technologique ait une prise
sur le contenu du processus judiciaire lui-même ou qu’il agisse
comme un facteur de modification des tours de parole. « On ne
se bouscule pas. Tout le monde ne parle pas en même temps,
ce qui serait une difficulté. Les choses sont très ordonnées et
donc quand on a une question à poser, le président nous donne
la parole, on intervient, tout ça c’est un jeu un peu entre nous,
presque une sorte de convention, donc on sait s’adapter. »125.
Quand on évoque la possibilité que les audiences à distance
soient plus collaboratives que les audiences en co-présence,
certains de nos interlocuteurs rejettent cette interprétation et
invoquent l’art judiciaire comme rempart aux risques générés
par l’usage de la visioconférence : « Ces risques sont mitigés
par un art de faire judiciaire, avec des magistrats habitués à la
mise en forme de questions intelligibles. »126
Nos observations d’audiences à distance nous ont bien
montré que les chevauchements dans les prises de parole sont
122
« - C’est d’ailleurs ce que permet la visioconférence, dans la mesure où elle
permet d’éviter les déplacements, et où il n’y a pas de perte de qualité, on l’a
constaté. Ce n’est pas comme les réunions par visio, qui posent des problèmes.
- Question de l’enquêteur : Pourquoi, en quoi est-ce différent ?
- Pour la comparution, la visioconférence ce n’est pas un pb mais pour les
réunions, j’ai eu 1 ou 2 expériences difficiles, peut-être parce que c’était pas bien
fait mais quand même à partir du moment où il y a 1 ou 2 personnes ailleurs, c’est
difficile. »,
Entretien avec un magistrat, ancien premier président de la Cour d’appel de Paris,
13 juillet 2004.
123
« Mais là, c’est pas comme une conversation », entretien post-audience avec
un assesseur, magistrat à la Cour d’appel de Paris, 22 mars 2004.
124
Entretien post-audience avec le président du tribunal, magistrat à la Cour
d’appel de Paris, 22 mars 2004.
125
Entretien avec un conseiller à la Cour d’appel de Paris, 21 mai 2006.
126
Entretien post-audience avec le président du tribunal, magistrat à la Cour
d’appel de Paris, 22 mars 2004.
115
116
nombreux et qu’il y a tout un apprentissage de ce nouvel outil,
y compris à l’intérieur du débat judiciaire. Le technicien
informatique qui gère la visioconférence, et qui n’est pas
juriste, explique d’ailleurs qu’il « a beaucoup de mal à ce que
les gens attendent d’être à l’image pour prendre la parole,
même si on la leur a donné, il y a un temps de latence pour que
la caméra zoome et mette au point ». Il doit faire « les gros
yeux pour que les gens se régulent, briefer les nouveaux pour
qu’ils se contrôlent, ceux qui sont distants reçoivent de rares
rappels à l’ordre du président »127.
La description du débat judiciaire comme étant très réglé,
très maîtrisé à la fois par les textes de droit et par les
professionnels de justice, la référence aux institutions
juridiques comme antidotes qui protégeaient l’interaction
judiciaire de « débordements » introduits par la technologie,
n’est donc pas sans rappeler ce que Pierre Bourdieu a qualifié
d’illusio c’est-à-dire le pouvoir de croyance suscité par le droit
dans sa neutralité sociale et politique. (Bourdieu, 1991, 1986).
Dans cette sociologie, le droit – appréhendé surtout à travers le
cas emblématique de la codification – participe aux
mécanismes d’exercice de la violence symbolique et de
domination. La neutralité, l’universalité juridiques à travers
lesquelles il s’exprime permettent de dissimuler les rapports de
force qui pourtant seraient à son fondement. C’est la capacité
du droit à générer à travers ses formes propres (la rhétorique et
la technique juridiques) une croyance dans sa neutralité, dans
sa distance au politique qui expliquerait son rôle dans le
maintien d’un ordre établi. Les juristes seraient « les gardiens
de cette hypocrisie collective » dont ils seraient eux-mêmes les
premières victimes (Bourdieu, 1991).
De façon inversée mais complémentaire, les innovateurs
jouent profil bas et tentent de ne pas survaloriser la
technologie, de montrer qu’elle est subordonnée, soumise aux
grands principes de droit, mais que c’est par elle que les
exigences des grands principes seront satisfaites. « On essaie
d’être le moins révolutionnaire possible quand on veut faire
passer des choses comme ça. On n’est pas là pour faire de
l’effet. On est là pour montrer qu’on est dans l’orthodoxie, à la
rigueur, qu’on est encore plus dans l’orthodoxie. Il faut bien
montrer qu’utiliser des technologies nouvelles, c’est nous
permettre de respecter les principes éternels, enfin
fondamentaux. »128
La question n’est pas de savoir si les magistrats rencontrés
adhèrent à l’idée selon laquelle le droit et les institutions
judiciaires seraient une sorte d’assurance tous risques contre
une possible dégénérescence du rituel judiciaire travaillé par
les technologies. Toutefois, dans la rhétorique relativement
classique de la transparence de la technologie (on change les
outils, les méthodes mais rien ne bouge sur le fond), cette
référence aux dispositifs formels et à la croyance dans la
spécificité du monde judiciaire fonctionne comme ressource
argumentative pour les innovateurs et vise à faire tomber les
réticences à l’innovation.
En effet, la justice est un milieu dans lequel il est
relativement facile pour les acteurs de tenter de produire du
changement129. Les juridictions bénéficient d’une grande
autonomie et sont peu contraintes par l’administration
centrale. Les hiérarchies locales ont peu de prise sur les
magistrats du siège notamment parce que le principe
d’indépendance, qui est au cœur de leur identité
127
Entretien technicien visioconférence, Cour d’appel de Paris, 22 mars 2004.
128
Entretien avec un magistrat qui a été rédacteur au bureau AB1 de la DSJ de
1996 à 1998, et qui a rédigé l’ordonnance de 1998 et le décret de 2001, Paris, 14
juin 2006. C’est nous qui soulignons.
129
La question de savoir s’ils y arrivent en est une autre (Ackermann et Bastard,
1993).
professionnelle, pénètre l’ensemble du fonctionnement
judiciaire y compris dans ses aspects organisationnels. Comme
le disent bien Ackermann et Bastard, « L’activité de justice
repose essentiellement sur le travail des juges, des
professionnels indépendants et soucieux de préserver la liberté
d’organisation de leur travail » (Ackermann et Bastard, 1993,
p.16 ; c’est nous qui soulignons). Au final, la justice est un
milieu relativement peu intégré, dans lequel les acteurs
disposent de marges de manœuvre importantes, qu’ils
s’efforcent de préserver. Pour autant, comme ce milieu est
aussi ressenti par ceux qui le vivent comme étant marqué par
le poids de la tradition, par une réticence au changement voire
par un certain immobilisme, la question de la justification, de
l’argumentation autour d’entreprises innovantes est
véritablement centrale et probablement décisive dans le
processus de construction de l’innovation. Ici certainement
plus qu’ailleurs, les innovateurs savent bien qu’ils auront à se
justifier et qu’il leur faudra se prémunir contre les possibles
critiques. Invoquer la « force du droit » mais aussi la force des
savoir-faire des professionnels du droit qui développent un
« art judiciaire » à travers toute une série de pratiques
stabilisées, c’est convaincre les juristes sceptiques en allant
"sur leur terrain", en utilisant l’argument qui est susceptible de
fédérer ces acteurs dans ce qui est le plus constitutif de leur
identité professionnelle, en l’occurrence un certain rapport au
droit.
Ce qui nous semble marquer le rapport de la justice à
l’innovation – s’agissant en l’occurrence des audiences à
distance –, c’est donc moins le poids du droit qu’un certain
usage, indirect, détourné, de la référence au droit comme
forme établie capable de protéger son monde, de le mettre à
l’abri de tout débordement ou décadrage possiblement généré
par l’émergence d’une nouvelle situation d’exercice de
l’activité.
II / Se mettre d’accord, s’arranger et s’ajuster autour
des audiences à distance
Les textes juridiques qui organisent les audiences à
distance sont des dispositifs de cadrage, parce qu’ils cadrent
juridiquement cette nouvelle pratique mais aussi parce qu’au
cours de leur processus de fabrique, ils génèrent des débats,
des controverses qui ont pour effet d’amener les acteurs de
l’innovation à se réajuster, à positionner autrement
l’innovation, à la recadrer symboliquement en en accentuant
certaines caractéristiques (le caractère exceptionnel de
l’utilisation de la visioconférence, justifié par le cas particulier
de Saint-Pierre-et-Miquelon) aux dépends d’autres (les
perspectives de généralisation du dispositif dans la justice
française)… Le processus de production des textes juridiques
participe donc pleinement, lui aussi, de la définition de ce que
sont les audiences à distance. Mais même considérés sous ces
deux aspects, les textes juridiques ne règlent pas tout ou plutôt
ne permettent pas tous les ajustements nécessaires à la
réalisation des audiences à distance.
Les innovations supposent en effet que les acteurs
développent de nouvelles habitudes, de nouvelles routines,
qu’ils apprennent à faire individuellement et ensemble ce
qu’ils n’ont jamais fait. Les possibilités mais aussi les limites
inhérentes à l’utilisation de la visioconférence renouvellent les
questions supposant un arbitrage commun. C’est en effet toute
la chaîne des actions et interactions en amont, en aval et dans
le procès qui est réinterrogée par le fait que les audiences aient
lieu à distance. Des questions comme celle du dépôt et de la
transmission des pièces du dossier, de la signature du procèsverbal de l’audience se posent à nouveau alors qu’elles avaient
été réglées, rodées pour les audiences en co-présence.
L’utilisation de la visioconférence réinterroge donc les acteurs
sur leurs pratiques, là où ils avaient intégré des habitudes, des
116
117
façons de faire.
Mais plus encore, les audiences à distance posent des
problèmes pratiques inédits comme celui de savoir quelles
images seront transmises : qui filme, comment, avec quels
cadrages (au sens photographique cette fois) ? En effet, là où
la co-présence permet à chacun de choisir là où il veut faire
porter son regard, la médiation par la visioconférence suppose
la définition d’un ou deux points de vue (par des vignettes
incrustées à l’écran) qui s’imposent ensuite à tous.
Inversement, là où la co-présence contraint la distance du
regard (les places étant assignées dans la salle d’audience et
les acteurs du procès ne se déplaçant pas), l’utilisation d’une
caméra permet d’effectuer des zooms c’est-à-dire de se
rapprocher artificiellement des personnes qui prennent la
parole pour mieux les voir. Nous voudrions ici nous attarder
sur cet exemple, particulièrement intéressant parce qu’il est
inhérent à l’utilisation d’un système audiovisuel de
transmission des images : comment et autour de quelles
solutions les acteurs parviennent-ils à se mettre d’accord ou
pas sur le cadrage qui doit être retenu ?
Les textes juridiques ont apporté une réponse de principe à
la question du cadrage indiquant que « les moyens utilisés
doivent assurer une retransmission fidèle, loyale et
confidentielle à l’égard des tiers »130. Mais pour les acteurs qui
ont mis en œuvre les premières audiences à distance alors
même que ce texte n’était pas encore publié (les premiers tests
de visio ont eu lieu en 1999 c’est-à-dire deux ans avant), il
convenait de produire en situation des ajustements permettant
de définir une pratique consensuelle. Comment cadrer les
parties au procès, par quel type de plan, accepter de zoomer ou
de ne pas zoomer sont les points saillants autour desquels le
débats s’est concentré.
Il est intéressant de voir que les questions se sont posées à
deux niveaux : quelle image donner du tribunal (généralement
composé de magistrats professionnels, une collégialité ou un
juge unique) d’une part et quelle image donner des parties
civiles, accusés et victimes (à destination du tribunal le plus
souvent) d’autre part ?
Il est devenu d’usage assez vite semble-t-il et sans que l’on
retrouve trace de débat sur ce point de réaliser un plan fixe du
tribunal. C’est d’ailleurs maintenant une pratique qui semble
institutionnalisée : toutes les audiences auxquelles nous avons
assisté entre 2004 et 2006 se sont réalisées selon ce modèle
que le tribunal soit situé à Paris ou à Saint-Pierre. Comme le
dit un magistrat qui a participé aux débuts de la
visioconférence : « Ce plan fixe, c’est un peu…, on ne fait que
transcrire l’aspect un peu rigide ou solennel, si vous voulez,
d’une composition, qui se veut un peu…, non pas détachée des
contingences mais surtout sans expression, sans expression de
parti pris, sans expression de préjugés. Le plan fixe représente
ce qui ne bouge pas. L’image que l’on veut donner, c’est une
image neutre. C’est cette image-là que l’on donne. »131 Il est
arrivé, lorsqu’un magistrat gérait seul l’outil sans qu’un
technicien ne soit là, que le cadrage fixe soit effectué de très
loin de telle sorte que l’on voyait un plan très large du juge et
de son greffier, apparaissant en entier, au centre de l’image
mais n’occupant qu’un tiers de l’écran. Aucun détail des
visages mais même de la direction des regards n’était
perceptible pour les personnes du site distant. Par ailleurs, si
les avocats ont pu demander un recadrage de l’image projetée
du tribunal, c’est seulement lorsqu’un des personnage
n’apparaissait pas à l’écran ou bien qu’il était coupé. Mais une
130
Art. 2 du décret n° 2001-431 du 18 mai 2001 portant application de
l’ordonnance n°98-729 du 20 août 1998 relative à l’organisation juridictionnelle
dans la collectivité territoriale de Saint Pierre et Miquelon et créant l’article R.
952-4 du COJ.
131
Entretien avec un conseiller à la Cour d’appel de Paris, 21 mai 2006.
fois le cadre ad hoc mis en place, ils ne sollicitent jamais de
voir le tribunal de plus près.
En revanche, pour le cadrage des personnes qui sont sur le
site distant et qui s’adressent au tribunal, l’enjeu de qui va
définir le cadrage est immédiatement apparu. Pour le premier
président de la cour d’appel de Paris de l’époque, qui était
moteur dans ce projet d’utilisation de la visioconférence, un
des principaux soucis « c’était la question de l’autonomie du
président. Il voulait savoir comment faire, pour utiliser la
console, cadrer… Il ne voulait pas que le président de
l’audience dépende d’un technicien et du cadrage qu’il
pourrait faire »132. « En interne, entre magistrats, il n’y a pas eu
de règles formulées, seulement l’autonomie du Président. On
considérait que le cadrage faisait partie de la police
d’audience. »133
Mais en externe, la question a été âprement discutée entre
les magistrats, les avocats qui participaient aux premières
visioaudiences et le technicien qui les administrait. Ce
technicien qui depuis 1998 s’occupe des visioconférences
entre Paris et Saint-Pierre nous raconte ainsi son apprentissage
et l’apprentissage collectif qui ont eu lieu lors des premières
expérimentations. Alors qu’il « tentait de faire de la belle
image, de la réalisation cinématographique », il lui a fallu
apprendre à intervenir le moins possible « pour ne pas orienter
le débat » ni « manipuler » ou « orienter » car « c’est un des
problèmes, un des dangers avec ce genre de technologie ».
C’est finalement à lui qu’il revient d’incarner une posture
d’extériorité, de faire « un effort de neutralité » et de résister
aux demandes des magistrats. Ceux-ci étaient en effet
favorables à des zooms permettant de mieux voir les
expressions, les réactions des individus alors que les avocats
avaient des positions qui variaient en fonction de l’intérêt de
leurs clients. « Les magistrats souhaiteraient être plus prêts,
l’avocat peut souhaiter être plus loin ou plus près suivant si
son client est innocent ou non ».
Dans ses conditions, c’est autour du principe du respect
des conditions habituelles du procès en salle d’audience que
les magistrats et les avocats impliqués ont trouvé un consensus
: « le deal s’est fait autour de la tradition de tenue d’audience,
mais c’est quasi institutionnel, on bouscule suffisamment avec
l’outil sans changer encore la manière de tenir une
audience »134. « Il faut que l’on reste dans l’ordre des
perceptions ordinaires. Ne pas accentuer quelque chose qui
n’est pas juste, avoir l’image la plus fidèle possible sans aucun
effet artistique. Il est important d’avoir la possibilité de voir
tout le monde, ses collègues, le procureur… »135 Ainsi ont-ils
opté pour un plan américain, fixe, « plus proche de la distance
d’audience ». « C’est le plus proche de la vision dans une salle
d’audience, 5 à 7 mètres entre les interlocuteurs et on simule
cette position. […] Cela permet de ne pas être plein cadre, de
mi-hauteur des cuisses à 20 cm au dessus de la tête on voit sa
gestuelle et assez de détail, à l’inverse il n’y a pas de gros plan
sur la dilatation des pupilles. Nous travaillons en 380X240
points, l’équivalent du VHS, trop loin, on risque de perdre des
détails, de lisser les expressions du visage ».
« Le consensus sur le cadrage s’est fait assez vite, depuis
2000-2001 » après une phase d’ajustements mutuels dans
laquelle ils avaient une fois « frôlé l’esclandre ». Mais il faut
préciser que cet arrangement a été rendu possible par la
132
Entretien avec un ancien responsable du SAR de la Cour d’appel de Paris, 21
décembre 2004.
133
Entretien avec un ancien responsable du SAR de la Cour d’appel de Paris, 21
décembre 2004.
134
Entretien technicien visioconférence, Cour d’appel de Paris, 22 mars 2004. les
expressions et phrases entre guillemets qui suivent sont issues de ce même
entretien sauf mention contraire.
135
Entretien post-audience avec le président du tribunal, magistrat à la Cour
d’appel de Paris, 22 mars 2004.
117
118
situation particulière de Saint-Pierre-et-Miquelon que l’on
peut résumer par l’existence d’un cercle d’interconnaissances
constitué des habitués de l’archipel (les magistrats et agréés en
poste à Saint-Pierre, quelques magistrats parisiens ainsi que les
deux cabinets d’avocats parisiens qui ont des cabinets
secondaires à Saint-Pierre) et la convergence de leurs intérêts à
ce que la visioconférence marche bien. Comme le disent les
avocats, « c’était une sorte de gentleman’s agreement. »136 « Il
y avait un consensus général entre avocats et magistrats pour
tout faire et avancer dans le cadre de la visioconférence. »137
Les arrangements entre acteurs impliqués ne se sont pas
limités à la question du cadrage mais celle-ci montre bien la
diversité des processus d’élaboration des normes judiciaires et
aussi leur fragilité. En effet si le groupe des innovateurs du
premier cercle qui a tricoté cet arrangement a tenté de
l’institutionnaliser, les observations réalisées jusque-là nous
amènent à constater la difficulté à établir une convention
stable dans le temps. Dès lors que la visioconférence est
utilisée par d’autres acteurs qui n’ont pas participé à ce
processus et au tricotage de l’arrangement, dès lors que les
acteurs du premier cercle ne sont pas physiquement là pour
réaffirmer ces principes ou pour les appliquer concrètement, de
nouveaux usages tendent à se développer qui génèrent en
situation des ajustements différenciés. Ainsi les recadrages et
le zoom ont-ils pu être utilisés récemment et massivement dans
une audience138, la console étant manipulée par le procureur…
En tout état de cause, cette question de la maîtrise du
cadrage fait apparaître la réflexivité et la gestion des cadres
comme une dimension supplémentaire dans l’audience à
distance. Dimension supplémentaire qui appelle des
compétences et des réflexes attentionnels nouveaux de la part
des acteurs judiciaires, en particulier du magistrat qui préside
l’audience. Il lui faut en effet accomplir tout ce qui relève de la
conduite d’une audience et gérer en plus des cadres via la
manipulation de la télécommande, mais aussi via le contrôle
de ce qui apparaît à l’écran, qu’il s’agisse de sa propre image
ou de celle des interlocuteurs. Nombreux sont ceux qui
soulignent la difficulté, sur un plan mental et cognitif, que
représente la manipulation simultanée de cet outil avec la
conduite des débats et la concentration qu’elle exige : « Le
président d’audience vient pour œuvrer, or il n’est pas là pour
faire du cadrage, c’est impossible, parce qu’on doit être
focalisé sur quelqu’un. Regarder autour c’est instinctuel :
quand vous êtes en présence physique, c’est l’instinct, vous ne
vous posez pas ces questions, vous ne vous tracassez pas, le
cerveau est toujours en veille, vous avez une vision
périphérique. On ne peut pas être sûr d’où cela va réagir, du
petit mot qui va échapper, la possibilité de recadrer ne suffit
pas. […] Il faudrait que le président ait complètement intégré
le dispositif, qu’il soit parfaitement entraîné, pour faire les
gestes (cadrage / recadrage) sans y penser, en parlant. »139 ;
« C’était trop, à mon niveau, trop compliqué à penser pour que
je puisse laisser une place à la visioconférence et c’est la
première chose que j’ai sacrifiée effectivement. Dieu merci je
m’étais calé sur une vision à peu près globale de la salle, mais
j’aurais pu tout autant m’oublier sur un gros plan du
procureur. Ça m’est totalement sorti de la tête, mais
totalement. Je n’ai pas simplement dit : « Ça ira bien », je n’ai
plus pensé [à la visioconférence et à la nécessité de faire des
recadrages en fonction de qui parlait]».140
C’est ce type de difficulté mais aussi les usages de plus en
plus étendus de la visioconférence (provoquant des
configurations très variées avec le juge tantôt à Paris, tantôt à
Saint-Pierre, les avocats aux côtés ou à distance de leurs
clients…) ainsi que les contraintes matérielles liés à
l’installation des matériels de visioconférence (l’écran placé
sur un côté, peu visible du président de l’audience lorsqu’il est
à Saint-Pierre, l’incapacité du greffier saint-pierrais vu où il est
assis d’actionner la télécommande…) qui peuvent expliquer
qu’en l’absence de technicien, les acteurs de l’audience aient
tendance soient à oublier le dispositif et à ne plus y toucher
sauf quand ils sont rappelés à l’ordre par le site distant qui
demande un recadrage (un avocat demandant s’il peut voir son
client pendant l’instruction à l’audience car il ne le voit que de
profil141), soit de confier la maîtrise des cadres à celui qui, sur
le site distant du tribunal, est le moins actif pendant l’audience
(le procureur en l’occurrence dans un des cas observés142).
136
Entretien avec un avocat intervenant régulièrement à Saint Pierre et Miquelon,
Paris, 4 octobre 2004.
140
137
Entretien avec un avocat intervenant régulièrement à Saint Pierre et Miquelon,
Paris, 28 juin 2004.
141
138
Audience correctionnelle du TPI, observée depuis la salle de visioconférence
du Palais de justice de Paris, 22 mai 2006.
142
139
143
Entretien avec un magistrat ayant présidé des audiences à distance, TGI de
Paris, 9 septembre 2004.
Cet exemple du cadrage donne à voir la place que revêtent
les ajustements et arrangements dans le contexte judiciaire de
Saint-Pierre. Comme le dit un avocat, « les relations sont
tellement consensuelles à Saint-Pierre que l’on s’est toujours
arrangés ; il y a une telle entente, mais pas une connivence car
chacun garde ses intérêts, qu’on discute et qu’on s’arrange
toujours. Parce que si un bloque, c’est tout le système qui est
bloqué.»143
Ces arrangements montrent bien que l’activité judiciaire
n’est pas strictement juridique au sens où elle consisterait en
l’application de normes juridiques générales à des cas
particuliers ou bien au sens où il y aurait une rupture entre
production de règles juridiques d’une part et production de
règles judiciaires d’autres part. L’activité de justice est une
activité sociale dans laquelle les professionnels du droit
(avocats, magistrats, greffiers…) jouent un rôle déterminant.
Ils élaborent au fil de leurs pratiques, des normes judiciaires
d’action qui ne sont ni la conformation à des règles juridiques
pures ni l’affranchissement de ces règles. Ces normes
judiciaires d’action sont des dispositifs de cadrage de la
situation. Elles procèdent d’arrangements qui s’établissent par
des jeux entre acteurs à différentes échelles (acteurs de
l’administration centrale, acteurs locaux) qui sécurisent le
contexte de l’échange. Les textes juridiques en font bien
entendu partie mais en dynamique avec bien d’autres registres
d’action. La référence au droit – ressource particulièrement
valorisée (à la fois sous la forme de références à des textes
juridiques, de pratiques faisant jurisprudence, de
raisonnements juridiques comme le syllogisme) – est toujours
présente même si c’est à des fins de justification,
d’argumentation. Le contexte judiciaire de l’outre-mer ainsi
que la situation d’innovation permettent de rendre plus
saillants ce quotidien de la justice fait d’arbitrages, de routines,
d’ajustements et d’arrangements à l’échelle individuelle et
collective.
Ces arrangements ne sont ni des « passe-droit » (Bourdieu,
) au sens où des largesses indues relevant d’un arbitraire
d’interprétation ou d’affranchissement de la règle juridique
écrite seraient accordées aux uns ou aux autres, ni des passes
du droit (Lascoumes, 1996) au sens où des acteurs judiciaires
exploiteraient les passages secrets du droit, les dédales dont ils
Debriefing d’une audience correctionnelle à distance, avec un juge du TPI,
Saint-Pierre-et-Miquelon, 17 mai 2006.
Audience correctionnelle du TPI avec plaidoiries à distance, observée depuis
la salle d’audience du Palais de justice de Saint-Pierre-et-Miquelon, 16 mai 2006.
Audience correctionnelle du TPI, observée depuis la salle de visioconférence
du Palais de justice de Paris, 22 mai 2006.
Entretien avec un avocat intervenant régulièrement à Saint Pierre et Miquelon,
Paris, 28 juin 2004.
118
119
sont familiers. Ce sont plutôt des ajustements ou des
arrangements locaux et transversaux qui s’établissent entre
professionnels (les justiciables restent quand même assez en
retrait de tout ce processus), en continuité avec l’opération de
production de cadres juridiques. Les liens entre les deux sont
des liens de type cognitif, argumentatif mais aussi relationnels
car certains acteurs font le lien entre ces différentes scènes de
production de normes. En l’occurrence, il semble que dans le
cas qui nous intéresse, le technicien informatique présent
depuis 1998 – il a donc participé à une grande partie de la
période de genèse et d’institutionnalisation des audiences à
distance – soit un acteur clef, à l’interface de ces différentes
scènes.
En somme, on peut dire que la production de nouvelles
normes d’action répondant aux questions "qu’est-ce qu’une
audience à distance ?" et "comment procéder dans ce type de
situation judiciaire relativement inconnue ? " procède d’un
processus de fabrique de normes juridiques explicites via des
dispositifs formels que prolongent, actualisent mais parfois
contredisent toute une série d’arrangements et d’ajustements,
tacites et explicites, verbaux et non verbaux, qui visent à
apprivoiser un nouvel espace, à stabiliser une situation, à
construire des échanges dans leur contexte.
Indications bibliographiques :
Ackermann W. et Bastard B. (1993), Innovation et gestion
dans l’institution judiciaire, Paris, LGDJ, coll. Droit et
société.
Bourdieu P. (1986), « La force du droit. Eléments pour une
sociologie du champ juridique », Actes de la recherche en
sciences sociales, 64.
Bourdieu P. (1991), « Les juristes, gardiens de l’hypocrisie
collective », in Chazel F. et Commaille J., Normes juridiques
et régulation sociale, Paris, LGDJ.
Commaille J. (1994), L’esprit sociologique des lois, Paris, Puf.
Lascoumes P. (1996), « Des « passe-droit » aux passes du
droit. La mise en œuvre socio-juridique de l’action publique »,
Droit et société, 32, p.51-73.
Lascoumes P. et Serverin E. (1985), « Le droit comme activité
sociale », Droit et société, 8, p.165-186.
Lévy R. et Zauberman R. (1997), « Des normes juridiques aux
pratiques professionnelles : ressources et contraintes dans
l’activité de police judiciaire », in Robert P., Soubiran-Paillet
F. et Kerchove M. (dir.), Normes, normes juridiques, normes
pénales, Paris, L’Harmattan, t.2, p.137-164.
Roussel V. (2004), « Le droit et ses formes. Eléments de
discussion de la sociologie du droit de Pierre Bourdieu »,
Droit et société, 56/57, p.41-56.
Le vote électronique en France : opaque & invérifiable
Chantal Enguehard,
LINA, Université de Nantes, France
[email protected]
Introduction
Cet article se limite au vote politique (élections de
représentants, référendum) et ne traite donc pas des autres
types d'élections (élections professionnelles, étudiantes, etc.).
L'utilisation de machines à voter dans la procédure de vote en
France est très récente. Elle n'a pas fait l'objet d'une
information auprès des citoyens au niveau national144 et encore
moins de débats. Pourtant, l'introduction de cette technologie
modifie profondément le procédé par lequel le peuple délègue
son pouvoir aux élus qui le représentent.
Il faut souligner que l'utilisation de machines à voter peut
participer à l'amélioration de la procédure de vote en
permettant, par exemple, à tous les candidats d'être
effectivement présentés aux électeurs, ce qui n'est pas le cas
actuellement puisque certains "petits candidats" ne peuvent
remettre des bulletins à leur nom dans tous les bureaux de
vote. Mais les machines à voter représentent également un
marché émergent, au développement prometteur, sur lequel se
pressent de nombreuses entreprises désireuses d'équiper nos
bureaux de vote. Il s'agit d'examiner comment s'articulent trois
réalités du vote électronique : le discours marchand des
entreprises, les textes issus du monde politique et les exigences
de sécurité informatique que doivent remplir ces dispositifs
électroniques.
I – Évolution de la procédure de vote en France
1 – Les lois
L'article 3 de la Constitution de la République Française
144
Le site du Ministère de l'Intérieur ne présente que les élections selon
la procédure traditionnelle
http://www.interieur.gouv.fr/rubriques/ (cliquer sur "les élections"
dans le menu "A votre service")
(consulté le 16 mai 2006)
de 1958 précise : « La souveraineté nationale appartient au
peuple qui l'exerce par ses représentants et par la voie du
référendum. » tandis que l'article 2 rappelle le principe de la
République Française : « gouvernement du peuple, par le
peuple et pour le peuple » [Conseil constitutionnel 1958]. Les
élections représentent le transfert de la souveraineté du peuple
à ses représentants, il est donc essentiel que le processus de
désignation des représentants (les élections politiques) soit
transparent et honnête, comme le précise le code électoral145.
Un décret (nº 64-1086 du 27 octobre 1964) puis 3 lois (nº
88-1262 du 30 décembre 1988 art. 3, 4 et 5, nº 2004-1343 du
9 décembre 2004 art. 14 1º, nº 2005-102 du 11 février 2005
art. 72) fixent le cadre légal du vote à l'aide machines à voter
en France [Légifrance 2005]. Celui-ci est réservé aux
communes de plus de 3500 habitants. Il doit se dérouler sur
une machine d'un modèle agréé par arrêté du ministre de
l'Intérieur et doit vérifier huit critères que l'on peut qualifier de
bons sens commun (le vote doit se dérouler dans un isoloir,
doit être possible pour les personnes handicapées, doit
permettre le vote blanc, etc.).
2 - Le vote
a– vote électronique
Le vote électronique désigne trois types de systèmes
électroniques : les machines à voter, le vote par internet et les
kiosques électroniques.Les machines à voter enregistrent les
votes des électeurs pendant le scrutin puis les additionnent
lors du dépouillement.
Le vote d'un citoyen se déroule ainsi :
145
Le code électoral énonce cinq critères que doit respecter une
élection : transparence, confidentialité, anonymat, sincérité (le bulletin dans l'urne
est-il celui que j'ai choisi ?sera-t-il compté ?), unicité (un vote par personne)
119
120
le citoyen entre dans l'isoloir
il consulte les choix présentés sur l'écran
il choisit en pressant un bouton
son choix est affiché sur l'écran
il confirme son choix
il sort de l'isoloir
il émarge.
Nous remarquons qu'à aucun moment l'électeur ne peut
vérifier que son vote a été effectivement bien noté.
Trois modèles de machines à voter ont été agrées par le
Ministère de l'Intérieur : la version "2.07" de la machine à
voter de la société NEDAP, le modèle "iVotronic" de la
société ES&S146 Datamatique et le modèle "Point & Vote" de
la société Indra Sistemas SA [Intérieur 01].
Le vote par Internet a pour objectif d'autoriser le vote à
l'aide de n'importe quel ordinateur connecté à Internet. La
procédure comprend l'authentification de l'électeur, le vote luimême, et l'émargement. Les kiosques électroniques sont des
terminaux placés dans les bureaux de vote et reliés à une
machine centrale (serveur). Ils se chargent de
l'authentification, de l'émargement et du vote, les résultats sont
transmis au serveur pour le dépouillement.
Cet article traite de problèmes qui sont communs à ces
trois dispositifs mais ne détaille pas les spécificités du vote par
Internet ou à l'aide de kiosques électroniques.
b – vote traditionnel avec bulletin papier
La procédure actuelle de vote, qui utilise des bulletins en
papier, n'utilise aucun dispositif électronique.
le citoyen prend des bulletins (d'au moins deux candidats
différents) et une enveloppe, il entre dans l'isoloir, il met le
bulletin de son choix dans l'enveloppe, il sort de l'isoloir et
glisse l'enveloppe dans l'urne transparente et visible de tous, il
émarge.
3 - Le dépouillement
Dans tous les cas le dépouillement se déroule après la
clôture des vote.
a– machines à voter
Dans la procédure électronique, le président du bureau de
vote (en présence d'assesseurs) appuie sur un bouton, la
machine donne les résultats sous la forme d'un ticket imprimé
qui est agrafé au procès-verbal et dont les résultats sont
recopiés sur ce même procès-verbal. Ces résultats sont
également inscrits dans la carte mémoire de la machine à voter
qui peut être éventuellement transmise à la mairie pour
totalisation (mais c'est le procès-verbal qui fait foi).
Nous remarquons immédiatement que la machine réalise le
dépouillement en toute opacité sans qu'il soit possible de
vérifier ses résultats. Le contrôle du vote échappe aux citoyens
qui doivent faire "confiance" à une machine.
b – vote traditionnel avec bulletin papier
Dans la procédure classique, le dépouillement est effectué
par des scrutateurs aidés du président du bureau de vote et de
un ou plusieurs assesseurs. N'importe quel citoyen peut
assister au dépouillement et en contrôler l'honnêteté.
actuellement en vigueur en informatique. En voici quelquesuns (légèrement adaptés à la situation française). Cette liste
n'est pas exhaustive et si un seul de ces critères n'est pas
respecté, le système informatique ne peut être considéré
comme sécurisé, autrement dit, la procédure de vote ne peut se
dérouler dans des conditions satisfaisantes.
Une machine non sécurisée présente des risques
importants de dysfonctionnement majeur, elle est susceptible,
en particulier, de donner des résultats qui ne reflètent pas la
réalité du vote.
Intégrité : le système (matériel et logiciel ainsi que les
paramètres initiaux et la configuration générale), une fois
certifié, ne doit pas être modifié, et ne doit pas pouvoir être
modifié. Il faut souligner que la présence d'un checksum censé
vérifier l'intégrité d'un système n'empêche nullement la
présence d'une modification malveillantes147.
Ouverture : le système (matériel, programmes, circuits
intégrés supplémentaires, documentation) doivent pouvoir être
inspectés à n'importe quel moment, même s'ils sont protégés
par le secret industriel.
Intégrité des personnes : l'intégrité de toutes les personnes
impliquées dans le développement, l'utilisation ou
l'administration de machines à voter doit être vérifiée. Les
personnes ayant été condamnées pour des crimes ou des
fraudes doivent être écartées.
Vérification : il doit être possible de recompter les votes
manuellement, et les procédures de recomptage manuel
doivent faire partie des connaissances détenues par le président
du bureau de vote.
2 – Analyse
Nombre de ces critères ne peuvent être respectés avec un
coût de développement raisonnable, et il faut bien admettre
que l'action d'une seule personne peut corrompre le
fonctionnement d'une machine à voter, et que toute affirmation
du contraire tient davantage de la croyance que de la logique.
La fragilité des systèmes informatiques est largement
admise dans la communauté des informaticiens professionnels.
Aussi, les programmes sont-ils toujours assujettis au contrôle
de leur fonctionnement dans le monde réel. Si le programme
pilote une fusée, celle-ci atteindra son objectif, ou bien déviera
de sa route et explosera, s'il y a une erreur de calcul dans votre
compte en banque, vous vous en apercevrez en vérifiant votre
relevé de comptes, si le robot qui réalise une pièce mécanique
dévie du plan prévu, la pièce sera défectueuse.
Dans le cas de machines à voter, seules les résultats
manifestement erronés parce qu'invraisemblables peuvent être
détectés. Si un candidat obtient davantage de voix qu'il n'y a
d'électeurs, il est évident qu'il s'est passé quelque chose
d'anormal et une enquête peut être diligentée. Mais le
problème peut être plus discret et n'affecter qu'un faible
pourcentage des votes cependant suffisant pour faire basculer
le résultat.
II – Les spécialistes de l'informatique
1 – Recommandations et risques
Les chercheurs en informatique se sont intéressés au vote
électronique depuis son apparition et ont produit des critères
visant à garantir que la machine à voter fonctionne
effectivement comme elle doit fonctionner [Neumann 1993].
Ces critères sont largement inspirés des critères de sécurité
146
Election Systems and Software
147
Le checksum d'un fichier est une séquence de chiffres et de lettres
obtenue de manière précise (mais non unique) à partir d'un fichier afin de savoir
s'il a été alteré. Un checksum permet de détecter quasiment toute modification
accidentelle mais ne protège pas des modifications intentionnelles.
120
121
Nous constatons que s'il n'y a aucun support
physique gardant une trace de chaque vote, il est
impossible de détecter les dysfonctionnements.
Il est donc crucial qu'une machine à voter garde une
trace physique des votes (un bulletin imprimé portant le
nom du candidat choisi, par exemple), et que cette trace
ait été vérifiée par chaque électeur au moment de son
vote pour prouver la sincérité du vote.
Cette trace physique doit faire foi s'il y a désaccord
entre le dépouillement manuel et le dépouillement
électronique.
Ce principe a été clairement affirmé à de nombreuses
reprises par différents informaticiens au plus haut niveau
[Mercuri 2000]. La prestigieuse association américaine ACM
(Association for Computing Machinery)148 a nettement pris
position dans le même sens le 27 septembre 2004
III – Les industriels
Le vote électronique est devenu un marché potentiel
important et concerne de nombreux États. Logiquement,
différentes entreprises se sont emparées de ce nouveau marché
en utilisant les techniques habituelles de promotion et de
marketing. Le discours de type managérial a progressivement
remplacé les réflexions de type politique ou administratif. On
use de l'argument de « modernisation » de la vie politique, on
vante la rentabilité (le coût des élections serait diminué),
l'augmentation assurée du taux de participation, et la fiabilité
des systèmes de vote électronique (la fraude serait quasi
impossible) sans qu'aucun de ces critères ne soit prouvé.
L'activité de lobbying est particulièrement intense :
publications d'articles dans lesquels les auteurs ne manquent
jamais de défendre avant tout les intérêts de leur société,
organisation de conférences et séminaires, dans lesquels sont
invitées les personnalités du monde politique, etc.
Finalement, des décisions importantes ont été prises en se
fondant sur des critères de minimisation des coûts et donc de
maximalisation des risques : l'impression d'un bulletin papier
vérifié par l'électeur lors de son vote est apparue non
essentielle aux fabricants de machines à voter car ce processus
"double" le comptage électronique effectué dans la machine, et
peut être source de pannes (bourrage de papier, manque
d'encre, de papier, etc.). Les machines à voter ne produisent
donc aucune trace physique prouvant la sincérité du vote et
permettant un recomptage manuel des voix. Par conséquent,
ces machines sont totalement invérifiables.
IV – Le pouvoir politique
Les décisions politiques ont été largement influencées par
le lobbying des industriels.
En France, le règlement [Intérieur 2003] qui fixe les
critères que doit remplir une machine à voter pour être
autorisée est particulièrement superficiel et ne tient aucun
compte des recommandations des spécialistes du domaine. Il
admet que le programme utilisé dans les machines à voter soit
secret. Il n'y a aucun examen approfondi du programme ou des
documents, aucune vérification de l'intégrité des personnes
intervenant sur ces machines, seules quelques machines sont
sommairement examinées par l'entreprise délivrant l'agrément,
les machines installées dans les bureaux de vote étant censées
être identiques aux machines examinées, mais il est impossible
de vérifier cette identité. De plus, il n'est pas prévu de
procédure spéciale de scellement ou de surveillance des
machines entre les scrutins.
Surtout, il est impossible de vérifier si la machine a bien
148
L'Association for Computation Machinery existe depuis 1947. Elle
possède une dimensuin internationale avecplus de 80 000 membres institutionnels,
universitaires et industriels issus de plus de 100 pays. http://www.acm.org/
fonctionné puisque le règlement n'impose PAS aux machines à
voter d'imprimer un bulletin papier vérifié par l'électeur. Les
nombreux incidents qui sont déjà survenues sur des machines
analogues n'incitent pourtant pas à la confiance !
V – la réalité
Les machines à voter sont très récentes en France (2004).
Il y a donc peu de faits qui peuvent être relatés concernant leur
utilisation dans ce pays. En revanche, leur introduction est
plus ancienne dans de nombreux autres pays (début des
années 1990 aux États-Unis par exemple). Cette période de
temps assez longue a permis une observation pertinente de leur
comportement.
Il faut souligner que les machines à voter peuvent être
différentes d'un pays à l'autre (par exemple, quelques-unes
impriment un bulletin papier), néanmoins elles ont plusieurs
points communs : ce sont des systèmes électroniques (qui
présentent donc potentiellement toutes les fragilités déjà
citées) et elles effectuent un dépouillement automatique.
1 – de nombreux incidents
Nous avons constaté que le discours des spécialistes de la
sécurité informatique a été largement occulté par celui des
industriels qui ont réussi à largement influencer la rédaction
des textes officiels régentant l'utilisation des machines à voter.
Cette situation n'est pas propre à la France, une dizaine de
pays149 utilisent largement le vote électronique malgré les
mises en garde des informaticiens. De nombreux incidents ont
été relevés, en voici quelques-uns à titre d'exemples, mais cette
liste n'est pas exhaustive.
États-Unis : en novembre 2003, dans le comté de Boone
(Indiana), une machine de votes a enregistré plus de 144 000
votes alors qu'il n'y avait que 19 000 électeurs [Simons 2004]
En Belgique chaque vote sur une machine à voter est
enregistré sur une carte magnétique anonyme. Lors du vote, il
faut insérer la carte dans la machine à procéder puis procéder
au choix. Celui-ci est mémorisé dans la carte que l'on dépose
ensuite dans une urne électronique qui décomptera les voix.
Ce système a le mérite de prendre en compte la nécessité
absolue de mémoriser le vote sur un support qui permette un
dépouillement indépendant de celui de la machine. Il présente
cependant le défaut majeur d'utiliser un support qui n'est pas
directement lisible par un humain (comme un bulletin imprimé
avec le nom du candidat) : il n'est pas possible de voir ce qui
est inscrit sur sa carte magnétique (est-ce bien mon vote ?150).
Lors des élections du 18 mai 2003, à Schaerbeek, un candidat
d'une liste obtient plus de voix qu'il n'est possible d'en obtenir.
Le recomptage manuel à partir des cartes magnétiques a
montré une erreur de 4096 voix, erreur qu'il a été impossible
d'expliquer ou de reproduire lors de nombreux tests menés sur
la même machine [Rapport Chambre et Sénat belge 2004,
page 21].
Au Québec les élections municipales du 6 novembre 2005
se sont déroulées à 95% à l'aide de machines électroniques151,
les incidents ont été massifs : des résultats sont arrivés avec
plusieurs heures de retard, des équipements sont tombés en
panne, des connexions Internet ont été coupées, des votes ont
été comptabilisés deux fois, etc. [Beaulieu 2006]
149
Belgique, Brésil, Canada, États-Unis, Hollande, Inde, Pays-Bas,
Vénézuéla.
150
Il est théoriquement possible de vérifier ce qui est inscrit sur la carte
en la repassant sa carte dans le lecteur de la machine sur laquelle on vient de
voter, ce qui ne constitue manifestement pas une preuve du bon enregistrement du
vote sur la carte magnétique. Des citoyens pugnaces ont insisté pour procéder à
cette vérification en lisant leur carte à l'aide d'une autre machine à voter (ce qui est
théoriquement absolument interdit par a loi) et ont déniché quelques erreurs (les
votes pour les derniers candidats d'une liste très longue n'étaient pas enregistrés).
151
Les incidents relatés concernent les machines de la Société PG
election http://www.pgelections.com/
121
122
etc.
Il faut souligner que seules les situations de
dysfonctionnement manifestes ont pu être détectées lors de
l'utilisation de machines invérifiables (n'imprimant pas de
bulletin papier vérifié par l'électeur). Il est certain que des
dysfonctionnements sont passés inaperçus car les résultats
énoncés par la machine n'étaient pas aberrants.
2 - Promesses non tenues
Rapidité
Non seulement le moindre incident entraîne des retards
colossaux pour la publication des résultats, mais en plus des
files d'attentes parfois impressionnantes se forment devant les
bureaux de vote : soit une seule machine a été installée là où il
y avait trois ou quatre isoloirs, soit des pannes de matériel ont
réduit le nombre de machines en état de fonctionner.
Sûreté
Aux États-Unis, en 2004, un quart du corps électoral a
voté sur des machines à voter. Celles-ci sont principalement
produites par les sociétés Diebold et Election Systems and
Software(ES&S).
Diebold ayant malencontreusement rendu public le
programme de ses machines sur Internet152, des chercheurs de
l'Université John Hopkins de Baltimore ont pu l'étudier
pendant plusieurs mois. Ils ont publié un rapport soulignant
l'absence totale de garantie des machines vendues par Diebold
et la très grande facilité avec laquelle il est possible de fausser
les résultats et même de les modifier à distance [Kohno and al.
2004].
L'acharnement de certaines entreprises à éviter de rendre
ces machines vérifiables (en les dotant de l'impression d'un
bulletin papier vérifié par l'électeur)153 devient suspect : cette
vérification systématique pourrait démontrer de nombreux cas
de résultats erronés et discréditer complètement cette
technologie pour cet usage très particulier qu'est le vote.
L'entreprise NEDAP utilise d'ailleurs ce curieux argument : le
dépouillement des bulletins papier pourrait mener à la
découverte d’anomalies dans le fonctionnement des machines
à voter le jour des élections, ce qui ébranlerait la confiance
des électeurs.
<<An audit trail could only show that the event, identified
as a risk occurs on Election Day, but that is too late!! In our
opinion every voting machine should be designed, built and
tested in accordance to the highest standards. Lowering the
standards cannot be compensated by any audit trail. Errors or
flaws detected during the election would shake voter’s
confidence and are unacceptable.>> [CEV 2004] Appendix 4,
Part 1, page 419154
Coût
Malgré les promesses quant à la réduction du coût des
élections et comme nous l'avons déjà vu, il apparaît que des
sommes considérables ont été investies dans les machines à
voter. Entre autres, le coût annoncé par les fabricants ne prend
pas en compte les nécessaires frais de maintenance et de
152
Ce qui est particulièrement cocasse de la part d'une entreprise de
haute sécurité.
153
Lors des élections du 18 mai 2003 en Belgique, quelques machines
ont été dotées d'une extension permettant d'imprimer un ticket que l'électeur
visualisait à travers une vitre (en fait une loupe grossissante). Après vérification et
confirmation, le ticket était déposé dans une urne pour qu'à aucun moment
l'électeur ne puisse modifier ou emporter ce ticket. Les tickets ont ensuite été
dépouillés pour vérifier les résultats de la machine. Ce dépouillement n'a pas été
achevé car les caractères imprimés étaient si petits et si peu lisibles que les
assesseurs n'ont pu mener l'opération à bien. La commission d'évaluation en a
donc conclu que l'impression d'un bulletin vérifié par l'électeur n'était pas possible
[Rapport chambre et sénat belge 2004]. Il est consternant de constater que tout a
été fait pour que cette expérience se déroule aussi mal que possible et que cette
mise en ?uvre calamiteuse n'ait pas été relevée par la commission d'évaluation.
154
Part1.pdf
http://www.cev.ie/htm/report/first_report/pdf/Appendix%204-
sécurisation des machines entre les scrutins.
Conclusion
Malgré la forte opposition des scientifiques spécialistes de
la sécurité informatique et la mobilisation croissante des
citoyens, il apparaît extrêmement difficile de remettre en cause
le vote électronique que le pouvoir politique continue à
soutenir. Nous constatons qu'après plus d'une décennie
d'errements certains États ont quand même commencé à
prendre conscience des problèmes posés par ces machines :
L'État de Californie a décidé de rendre obligatoire l'impression
d'un bulletin papier vérifié par l'électeur à partir de juillet
2006 ; en Irlande, la commission indépendante nommée par le
gouvernement155 a déclaré en décembre 2004 être incapable de
recommander l'utilisation des machines à voter NEDAP pour
les prochaines élections. Dick Roche, ministre en charge du
dossier, a confirmé officiellement que ces machines
électroniques à voter ne seront pas utilisées pour les élections
de 2007.
Il serait douloureux que les mêmes erreurs soient
commises en France alors même que des élections majeures
(présidentielles et législatives) vont avoir lieu en 2007,
d'autant plus que la remise en cause a posteriori du bon
déroulement de ces scrutins pourrait menacer la stabilité
politique de ce pays. Il apparaît donc urgent de suspendre
l'utilisation des centaines de machines à voter équipant déjà
des bureaux de vote.
Enfin, il est regrettable que la mise en ?uvre de machines à
voter ait eu lieu sans qu'une commission indépendante à la fois
du pouvoir politique et des tentations commerciales ne soit
mise en place. L'utilisation de l'électronique peut contribuer à
améliorer le fonctionnement de la démocratie, par exemple en
ce qui concerne l'accès des handicapés, ou la possibilité
effective de voter pour tous les candidats, si la mise en ?uvre
de ces systèmes ne dégrade pas la qualité de la procédure de
vote dans son ensemble.
Bibliographie
[Beaulieu 2006] Alain Beaulieu, "Les ratés des élections
municipales", magazine Direction informatique, décembre
2005-janvier 2006.
http://www.directioninformatique.com/di/client/fr/DirectionInf
ormatique/Nouvelles.asp?id=37916
[CEV 2004]Commission on Electronic Voting, First Report,
"Secrecy, Accuracy and Testing of the Chosen Electronic
System,
December
2004.http://www.cev.ie/htm/report/first_report.htm
[Conseil
constitutionnel
1958]
http://www.conseilconstitutionnel.fr/textes/constit.htm
[Intérieur 01]"Machines à voter"
http://www.interieur.gouv.fr/rubriques/b/b3_elections/b31_act
ualites/2003_07_04_machines_voter
[Intérieur 2003]"Arrêté du 17 novembre 2003 portant
approbation du règlement technique fixant les conditions
d'agrément des machines à voter". Auteur(s) inconnus(s).
http://www.interieur.gouv.fr/rubriques/b/b3_elections/b31_act
ualites/2003_07_04_machines_voter/mav2.pdf
[Kohno and al. 2004]
Tadayoshi
Kohno,
Adam
stubblefield, Aviel D. Rubin, Dan S. Wallach, "Analysis of an
Electronic Voting System", IEEE Symposium on Security and
Privacy, Oakland, CA, May, 2004.
[Légifrance 2005]article L57-1 du code électoral,
http://www.legifrance.gouv.fr/WAspad/ (consulté le 13 mai
2006).
[Mercuri 2000]
Rebecca Mercuri, "Electronic Vote
Tabulation Checks & Balances", Ph.D. dissertation, School of
155
Commission on Electronic voting http://www.cev.ie/
122
123
Engineering and Applied Science of the University of
Pennsylvania, Philadelphia, PA, October 27, 2000.
[Neumann 1993] Peter G. Neumann, "Security Criteria for
Electronic Voting", 16th National Computer Security
Conference Baltimore, Maryland, September 20-23, 1993.
[Rapport chambre et sénat belge 2004]
Sénat
et
chambre des représentants de Belgique, "Rapport concernant
les élections du 18 mai 2003", numéro 3-7/1 (Sénat) Doc 51
0001/2 (Chambre), 2004.
[Simons 2004]Barbara Simons, "Electronic Voting Systems:
the Good, the Bad, and the Stupid", ACM Queue vol. 2, no. 7 October 2004 .
Je remercie Pierre Muller pour sa relecture attentive de cet
article et ses conseils toujours avisés.
L’usage des diapositives numériques en milieu organisé
ou la recomposition provisoire de collectifs éclatés
Gérald Gaglio,
[email protected].
Michel Marcoccia
[email protected]
Manuel Zacklad
[email protected]
Laboratoire Tech-Cico, Institut Charles Delaunay,
Université de Technologie de Troyes
Après avoir colonisé le monde du travail, le logiciel Power
Point, via la création des diapositives numériques qu’il permet,
irradie en permanence de nouvelles sphères. Cette
omniprésence devient presque contraignante et a engendré
maintes critiques. On voit ainsi fleurir une contestation de
l’usage
intempestif
des
diapositives
numériques
(principalement aux Etats-Unis) allant de la satire (Stewart,
2001 ; Tufte, 2003a), à une argumentation semi-académique
(Tufte, 2003b, Parker, 2001). Le projecteur est pointé sur les
effets pervers de l’utilisation intensive de ces présentations : le
« slideware » (Tufte, 2003a) amènerait à privilégier la forme
au fond. Ce dernier, pris dans une rhétorique de la
séquentialité (Kjeldsen, 2006), deviendrait fragmenté, pauvre
et empêcherait la transmission d’informations complexes,
voire entraînerait des incompréhensions conduisant à des
désastres comme la chute de la navette Columbia (Tufte,
2003b). Ce mode de communication conduirait de surcroît à
un effacement du présentateur au profit du document projeté,
et partant génèrerait l’ennui dans des millions de salle de
réunion à travers le monde.
Cette posture critique, sans être ignorée, tentera d’être
dépassée. De plus, notre propos se recentrera sur le champ des
organisations où l’élaboration, la présentation puis la
transmission des diapositives numériques constitue désormais
un processus organisationnel usuel. Plusieurs options s’offrent
alors, tant notre objet de recherche est fuyant. Il est d’abord
possible d’explorer ces documents en tant que modalité
communicationnelle hybride mixant un écrit souvent
multimédia projeté sur un grand écran, et un oral de
complément. Cet objet peut être aussi investigué au regard de
son efficacité, tant du point de vue linguistique, que des
actions et décisions concrètes auxquelles il conduit (Atifi,
Gaglio, 2006). A la suite de Yates et Orlikowski (2006), les
présentations de diapositives numériques seront plutôt
envisagées comme un genre de communication. Un genre156
est relié à des actions de communication, qui, à la fois, ouvrent
des possibles, enferment les acteurs et suscitent des attentes.
On peut les caractériser grâce à 6 questions : Why ? What ?
Who ? How ? When ? Where ?
Quelle est alors la spécificité du genre « diapositives
numériques » dans la constellation des écrits circulant dans les
156
« Genres are indicative of what communities do and do not do (purpose), what
they do and not to value (content), what different roles members of the community
may or may not play (particpants), and the conditions (time, place, form) under
which interactions should and should not occur » (op.cit. p.5).
entreprises (mail, tableau exel, document word…) ? Doit-on
parler de genre au singulier ou au pluriel ? Quelle est leur
portée dans la vie de l’organisation ? Comment en prendre la
mesure au sein même des documents ?
Des pistes de réponse seront apportées dans cet article.
Pour ce faire, et contrecarrant le constat de Farkas (2006) sur
la faiblesse des données empiriques mobilisées sur ce sujet,
deux méthodes seront ici exploitées (l’analyse linguistique de
corpus et l’observation participante) et un terrain sera
investigué : une direction « nouveaux services » d’un
opérateur de téléphonie mobile, dans laquelle un des auteurs a
évolué pendant plus de 10 mois en tant que chargé d’études
marketing (décembre 2004-septembre 2005). Ce poste a
permis de collecter un grand nombre de documents Power
Point, de même qu’il va aider à en restituer le contexte et en
tirer une compréhension globale. Cet emploi a aussi mis en
présence de nombreux projets de développement de service,
d’individus les portant (les chefs de produit), des hiérarchiques
les évaluant (les managers), de fonctions-supports (études,
process, technique, marketing, finance…) y contribuant, les
présentations de diapositives numériques jalonnant ce
processus.
Ainsi, dans un premier temps, nous montrerons que les
réunions de présentations de ces documents supposent
préalablement une écriture ou une réécriture de présentations,
ce qui donne à voir conjointement l’apparition d’un
interdiscours ainsi qu’une gestion particulière de
l’hétérogénéité énonciative. Dans un deuxième temps, le
« pourquoi » de la rémanence de situations de réunion de
« prés’ », dans l’environnement étudié, sera éclairé, à
l’intérieur du mode collaboratif en projet. Enfin, nous
avancerons que l’usage des diapositives numériques s’inscrit
dans la constitution d’un corpus ressource pour les acteurs et
peut être assimilé à un « écrit théâtral ».
I DIAPOSITIVES NUMERIQUES,
INTERDISCOURS ET HETEROGENEITE
ENONCIATIVE
Les diapositives numériques dans les organisations sont
souvent les produits d’un processus d’élaboration collective,
mettant en jeu divers acteurs. On peut illustrer cette situation
par l’exemple suivant : l’élaboration d’une série de
diapositives numériques, qui relate et met en scène une étude
de créativité sur « la télévision en mobilité » (« quels contenus
123
124
télévisuels pourraient être proposés en accès à partir d’un
téléphone portable ? Quelles sont les attentes des clients ? »).
Le résultat de cette étude de créativité est un document
composé de diapositives numériques, servant de support pour
une présentation dans l’entreprise. Elle a ensuite alimenté une
série d’autres documents. Plus généralement, le processus
d’élaboration étudié peut être découpé en cinq phases.
Phase 1 : la commande. Un service de l’entreprise définit
le brief d’une étude sur les services à venir de télévision sur
mobile, les enjeux de l’étude, les questions à traiter. L’étude
sera réalisée par un institut externe à l’entreprise. Cette phase
se réalise après la production d’un document de diapositives
numériques (1), fruit d’un séminaire interne au sein duquel les
objectifs du projet ont été arrêtés.
Phase 2 : l’étude. L’institut choisi pour l’étude livre sa
réalisation, sous la forme d’un document de type Power Point
(2).
Phase 3 : les documents de travail. Le document (2) fait
l’objet de diverses synthèses au sein de l’entreprise
commanditaire, mettant en avant divers éléments de l’étude
selon les interlocuteurs concernés. Ces documents de travail
(3) sont le plus souvent des présentations de diapositives
numériques.
Phase 4 : la synthèse préalable. Une sorte de méta-synthèse
est commandée à un chargé d’études de l’entreprise, qui
produit alors un court document de « diapos » (4) proposant
une traduction de l’étude initiale (2) au chef de projet. Ce
document est en fait une partie du document final.
Phase 5 : le document final. Il s’agit d’une longue
présentation de diapositives numériques (5), servant de
support à une présentation du chef de projet (qui fait partie de
ceux qui ont élaboré la commande) aux dirigeants de
l’entreprise. Elle comprend la partie « étude » (première partie
du document) (4) mais aussi d’autres contributions de
différents services (juridique…). Nous nous focaliserons sur la
partie « étude ».
Si l’on s’intéresse à la nature des discours produits au
cours de ce processus d’élaboration documentaire, quelques
points importants sont à noter. Tout d’abord, tous les
documents entretiennent des relations étroites. Ainsi, le
document 2 est une réponse au document 1. Les documents
produits au cours de la phase 3 sont essentiellement des
synthèses, des analyses ou des reformulations du document 2.
Le document 4 a ce même statut mais il est aussi directement
lié au document 5, dont il constitue une sorte de brouillon.
Ainsi, pour chaque document, l’ensemble des autres
documents du dossier constitue un interdiscours, c’est-à-dire
un ensemble d’unités discursives avec lesquelles un discours
particulier entre en relation implicite ou explicite. Cela
implique que la production de chaque document s’appuie sur
un pré-construit. En reprenant les thèses de Pêcheux (1975),
on peut souligner l’effet d’assujettissement des discours par
rapport à l’interdiscours dans lequel ils s’intègrent. En d’autres
termes, l’identité d’un discours se limite à son maintien dans
l’interdiscours. Comme le note Maingueneau (1997),
l’énonciation ne se développe pas sur la ligne d’une intention
individuelle fermée, elle est de part en part traversée par les
multiples formes de rappel de discours déjà produits et par la
menace de glisser dans ce qui n’est pas dicible dans cet
interdiscours.
Dans le corpus étudié, on observe de nombreux
phénomènes discursifs qui peuvent être associés à la
prégnance de cet interdiscours sur la production des
documents. Ainsi, certaines thématiques s’imposent dans
l’interdiscours et leur importance se manifeste par des
phénomènes de reprise lexicale. Par exemple, le document (1)
insiste sur l’argument de la personnalisation des services (« le
véritable lancement de la vidéo mobile avec une forte mise en
avant de la thématique personnalisation »). Ce terme est alors
repris de nombreuses fois dans le document (2) (« une
personnalisation
optimale »,
« réduite »,
« forte
personnalisation
des
programmes »,
« une
forte
personnalisation », « bénéfice : la personnalisation », « la
personnalisation des informations », etc.) et dans les
documents (4) et (5).
En revanche, d’autres thématiques (et les procédés
discursifs qui les portent) ne circulent pas d’un document à
l’autre et ne semblent donc pas être des éléments constitutifs
de cet interdiscours. Par exemple, le document (2) décrit les
services à développer comme « attractifs, simples, ludiques,
porteurs ». Il est intéressant de constater que seule la
thématique de la simplicité était initiée dans le document (1)
(« interactivité simple ») et que seule celle de la ludicité est
reprise dans les documents (4) et (5) (« ludique, humour,
légèreté »). On voit que le document constituant la commande
ne contraint pas totalement l’étude, et que cette dernière
n’instaure pas non plus un cadre thématique et lexical
fortement contraignant pour les documents qui en constituent
la synthèse.
De la même manière, le document (2) propose une
typologie des services susceptibles d’être mis en oeuvre : « les
fractionnés, les contextualisés, les thématiques, les
personnalisés, les localisés ». On pourrait imaginer que, par
leur nature classificatoire, ces termes servent de pivots pour les
autres documents. En fait, une restriction s’opère dans un des
documents de travail de la phase 3, dans lequel ne sont plus
présentés que les « fractionnés », les « thématiques » et les
« personnalisés ». Une nouvelle restriction est observable dans
le document (4), où on ne parle plus que de « fractionner des
programmes ». Tout au long de ce processus de réinvention
documentaire, on observe en réalité la succession de différents
genres de documents : la commande correspond à un discours
assertif et directif (un état des lieux assorti de questions),
l’étude entretient naturellement quelques rapports avec les
discours didactiques ou scientifiques : il s’agit avant tout de
décrire, d’analyser, de classer. De ce point de vue, proposer
des listes de catégories est bien une manifestation de la
rhétorique scientifique, même s’il s’agit principalement là d’un
effet de style. A partir de la phase 3, les documents de
diapositives numériques utilisent le document (2) en essayant
d’en tirer des « éléments d’exploitation » pour l’entreprise. A
cette phase, l’objectif est de définir un plan d’action pour
proposer concrètement de nouveaux services sur les mobiles.
On observe ainsi une reconfiguration sémantique et
pragmatique des thèmes au cours du processus, allant de
l’étude jusqu’au document strictement opératoire.
Parmi les différents documents formant l’interdiscours, le
document final (5) occupe une place privilégiée. Tout d’abord,
il est utilisé dans une présentation assurée par une des
personnes ayant lancée la commande et dirigée le processus.
D’une certaine manière, on note un phénomène de « retour à
l’envoyeur », qui donne une place centrale à cet acteur. De
plus, ce document est vraisemblablement la seule trace du
processus qui sera exposée aux destinataires finaux. Ainsi, on
comprend que l’étude initiale n’existe aux yeux des dirigeants
de l’entreprise qu’à travers son exploitation et sa
reformulation. Ce document final peut donc être analysé
comme une mise en scène du processus et, surtout, des
différents acteurs qui y ont participé. Même si il est présenté
ou pris en charge par une seule personne, il s’agit d’un
document qui met en jeu plusieurs auteurs. En analyste de
discours, on dira que ce document est fortement marqué par
l’hétérogénéité énonciative, directement héritée de la notion de
dialogisme chez Bakhtine (1978).
Selon Authier-Revuz (1982), l’hétérogénéité énonciative
124
125
est constitutive de tout discours, qui se structure à travers ses
relations avec d’autres discours, indépendamment des traces
visibles des ces autres discours. Les mots sont toujours les
mots des autres, le discours est tissé des discours d’autrui.
Partant de ce concept, on peut aussi réfléchir à l’hétérogénéité
énonciative propre à certains discours. Parallèlement au
dialogisme généralisé, certains discours ont une hétérogénéité
énonciative spécifique à leurs conditions de production. Ainsi,
le document final de diapositives numériques est le produit
d’un processus d’élaboration collectif et, à ce titre, il n’est pas
issu d’une seule source énonciative. On peut donc parler
d’hétérogénéité énonciative spécifique (il mêle différentes
sources énonciatives correspondant aux différents acteurs du
projet) et, si l’on veut, d’hétérogénéité constitutive (il est aussi
pris dans un dialogisme généralisé).
Dans notre cas, l’hétérogénéité énonciative est montrée157
car le discours rend identifiable de manière explicite les
différentes sources énonciatives (citation en style direct,
marques auctoriales, etc.) : l’institut d’étude est par exemple
clairement identifié comme énonciateur originel. En effet, le
logo de l’institut d’études est présent sur la première page du
document. En revanche, dans le corps du document,
l’hétérogénéité est plutôt masquée, dans la mesure où aucun
élément du discours ne peut être attribué à d’autres
énonciateurs. Certains phénomènes manifestent cependant
cette hétérogénéité, mais uniquement si l’on a accès aux
documents préalables. Ainsi, on note que certaines « slides »
du document (4) sont reprises presque intégralement dans le
document (5), qui en modifie néanmoins le titre. Le contenu
de la diapositive 17 du document (4) (« Types d’idées de
services à développer, à l’issue de cette présentation ») est
repris totalement dans la diapositive 9 du document 5, mais
avec une modification du titre (« Types d’idées de services à
développer, à l’issue de l’étude créative »). Pour les
destinataires finaux, il est en revanche impossible d’identifier
les autres sources énonciatives que celle de la personne leur
présentant le document. Pour autant, cette personne ne se pose
pas comme auteur du document : son nom ne figure pas en
première page. On a en fait un dispositif d’énonciation
collectif plutôt que pluriel. L’auteur du document est une
instance collective, issue de la fusion des deux entités
signalées comme auteurs : le service d’études interne et
l’institut prestataire. La personne qui assure concrètement la
présentation du document a cependant un rôle central. Par
rapport aux autres sources d’énonciation, elle occupe un rôle
de locuteur porte-parole (Ducrot, 1984)158 : elle parle au nom
d’un collectif invisible et même si on ne trouve pas de marques
explicites des autres sources énonciatives, l’énonciation n’est
pas non plus prise en charge individuellement. De surcroît, ce
rôle de porte-parole est stratégique car il permet de se
dissoudre dans le collectif tout en l’incarnant, de faire à la fois
« le modeste et l’important » (Marcoccia, 1994).
Au-delà de problématiques strictement énonciatives, cette
analyse sous-tend, grâce à des manifestations discursives au
sein des documents (reprise, sélection de termes et de thèmes,
hiérarchisation…), des relations de place et de négociation
157
A la suite de Authier-Revuz (1982), on peut distinguer cette hétérogénéité
énonciative de deux autres formes :
l’hétérogénéité manifeste, lorsque le discours donne implicitement
accès à d’autres sources énonciatives (par des emprunts lexicaux,
l’usage de guillemets, etc.).
l’hétérogénéité masquée : lorsque le discours se présente comme
n’étant portée que par une seule source énonciative, par un travail de
« lissage » de l’énonciation (reformulation, changement de style ou
de registre, etc.
158
Ducrot (1984), dans sa théorie de la polyphonie énonciative, rend compte de
deux autres rôles : celui d’énonciateur parmi d’autres (sa voix est identifiée avec
celle des autres), et celui de simple intermédiaire (elle se contente de présenter un
document produit par d’autres)
dans le collectif ayant élaboré lesdits documents. En
contrepartie, la potentialité de s’approprier, de réinterpréter en
permanence les traces produites par de multiples énonciateurs
ouvre un champ des possibles toujours plus grand, pouvant
être une des modalités de la « montée en compétence » pour
certains acteurs et d’un sentiment d’appartenance a minima.
Cela emboîte le pas aux enjeux organisationnels qui vont
suivre, tous liés à la profusion de diapositives numériques dans
l’entreprise étudié.
II LA SITUATION DE « PRES’ » : UNE
RECOMPOSITION PROVISOIRE DE COLLECTIFS
ECLATES, ENTRE BALISAGE DES PROJETS ET
NORMATIVITE
Dans l’environnement observé, la récurrence des réunions
cadencées par la présentation de documents concentrant des
diapositives numériques est frappante159. Cela n’est étonnant
que dans une certaine mesure. Comme le montre Licoppe
(2000), les instruments de communication internes se sont
multipliés conjointement à l’apparition de la firme
chandlerienne aux Etats-Unis dès la fin du 19ème siècle, et sont
liés à l’avènement du « management systématique » : les
présentations où l’on dit ce que l’on fait et ce que l’on va faire,
auxquels nous avons assisté, n’en sont que les prolongements.
Ensuite, Yates et Orlikowski (2006) notent que les
présentations de diapositives numériques s’inscrivent dans la
lignée des « business presentation » (présentations marketing,
de résultats, projets de développement etc), également plus
anciennes. Pour finir, l’usage du vidéoprojecteur est une
sophistication technique du rétroprojecteur permettant
l’affichage de « transparents », dont Morel (2002) pointait
l’absurdité du fait de leur illisibilité. Dans le contexte exploré,
où les « services de demain » doivent être pensés, rajoutons
que ces présentations servent à donner l’impression d’un ordre
de marche cohérent et d’une prévisibilité, alors que le marché
est tâtonnant : pour l’heure, dans leur grande majorité, les
consommateurs ne suivent pas les incitations des offreurs dans
le dessein d’un « Internet mobile » par exemple.
Plus précisément, ces présentations semblent s’inscrire
dans la continuité de l’organisation en mode projet adoptée
dans l’entreprise étudiée, en plus d’être congruente avec un
discours valorisant la communication, la transversalité et la
transparence (Zarifian, 1996). Le mode projet, pris dans sa
quotidienneté, implique l’instauration d’une confiance
réciproque, de dons contre dons l’alimentant et comprend un
risque de fragilisation identitaire compte tenu de ses
incertitudes (Cihuelo, 2005). Il tente aussi, en tant que mode
d’organisation du travail, d’ordonnancer temporellement
lesdits projets à l’aide des « lots » et des « livrables ». Le
document de diapositives numériques présenté en public
permet le plus souvent de faire le point sur le projet, de
témoigner de son avancée ou de distiller des informations à
son sujet (présentation d’une étude marketing le concernant,
diffusion d’une synthèse…). En d’autres termes, ces
documents accompagnent les projets et les balisent. De
plus, les projets incorporant des compétences diverses,
l’événement représenté par la réunion de présentation permet
de recomposer, au moins provisoirement, des collectifs éclatés.
D’une part, ces collectifs de projets sont éclatés à la fois
spatialement et temporellement. Spatialement car le travail ne
se réalise pas au sein d’un lieu unique et que les individus sont
investis dans plusieurs scènes, notamment via l’usage du mail
et du téléphone, mais aussi par l’intermédiaire de rencontres
avec des membres extérieurs à l’organisation. Temporellement,
car les échanges sur ces différentes scènes ne s’alignent pas sur
159
L’intervention fréquente des cabinets de conseil en entreprise alimente aussi à
cette tendance.
125
126
la même temporalité. En réinjectant de l’échange en face à face
en mode synchrone, la réunion de présentation de diapositives
numériques constitue une pause et recompose provisoirement
ces collectifs. D’autre part, les individus s’agrégeant dans ces
collectifs de projets sont engagés dans des réseaux aux
frontières incertaines ayant des échéances temporelles leur
étant propre, des types de relations et des enjeux spécifiques :
le marketing est un segment organisationnel en situation de
domination relative dans la direction étudiée, et n’a, par
exemple, ni
les mêmes interlocuteurs, ni les mêmes
contraintes, ni les mêmes codes professionnels que les
ingénieurs en télécommunications. Les réunions de
présentation de diapositives numériques favorisent à minima
un sentiment de cohérence organisationnelle en mettant autour
d’une même table, et au même moment, les principales parties
prenantes des projets.
Cette recomposition temporaire des collectifs comporte
également une dimension normative car elle s’impose aux
acteurs. Il « faut faire une prés’ » et se réunir pour en discuter,
devient un guide pour l’action acceptable pour les membres de
la direction étudiée et est une réponse pragmatique à des
problèmes récurrents : comment restituer des résultats,
témoigner de l’avancement des projets, travailler en groupe en
mutualisant des expertises diverses ? Cela ne sera pas
développé, mais cette normativité semble alimentée par la
dimension rituelle de ces situations, au sens profane du terme
(Rivière, 1995), tant du fait de la répétition de ces réunions,
que de la trame de leur déroulement (invitation par e-mail,
installation
du
matériel, présentation,
conciliabule,
questions…).
Cela étant, force a été de noter que les réunions de
présentation d’avancement de projets sont souvent organisées
à la demande des managers et des dirigeants. D’aucuns y
verront un accroissement du contrôle hiérarchique engendré
par les NTIC. Cet argument peut être concurrencée par une
seconde interprétation : les salariés qui s’adonnent à ces
présentations y trouvent leur compte. Premièrement, ils se font
connaître ou (re)voir de responsables leur étant parfois
éloignés dans l’organigramme. Deuxièmement, ils tentent d’y
« faire passer des messages », c'est-à-dire de susciter
l’adhésion des décideurs sur leur manière de conduire le projet
et de légitimer des moyens pour le mener à terme.
Troisièmement, dans cette direction de « développement » et
non de « commercialisation », on ne dispose pas de prises
objectives comme le chiffre d’affaire réalisé pour évaluer le
travail accompli. La présentation est alors un exercice
commode pour témoigner de sa capacité à « bien présenter »
(au propre comme au figuré), à mettre en réseau différents
interlocuteurs internes, externes, et de rassurer sur le bon
déroulement du projet.
La portée organisationnelle de ces présentations, à la fois
fonctionnelle et plus symbolique de recomposition provisoire
de collectifs de projets éclatés, est maintenant mieux cernée,
de même que la rémanence de leur recours. Cette
compréhension inductive invite à préciser l’assertion selon
laquelle La présentation de diapositives numériques est un
genre de communication (Yates, Orlikowski, 2006). Ce
processus organisationnel semble conquérir, via ses usages, un
espace allant au-delà des contenus qui y sont transmis et
débattues. Cet espace ne peut toutefois être considéré comme
autonome : il est tributaire de décisions prises en amont, en
aval, ainsi que d’autres sources d’informations parvenant sous
forme documentaire (mail, fichier Word, Exel…) ou par oral.
C’est cet aspect qui va être développé maintenant.
III LES PRÉSENTATIONS PROFESSIONNELLES DE
DIAPOSITIVES NUMÉRIQUES : CONSTITUTION
D’UN CORPUS POUR SOI ET « ÉCRIT THÉÂTRAL »
En accord avec les théoriciens de la communication
organisationnelle (Taylor et al, 1996) nous considérons dans
cette partie les échanges langagiers à caractère oraux ou écrits
comme étant un des principaux moyens de la création de
valeur au sein des organisations (Zacklad, 2005a). Plus
précisément, ceux-ci relèvent pour nous de la réalisation de
transactions160, qui sont à la fois l’occasion de la réalisation de
productions plus ou moins originales (œuvre ou objet) et
d’individuation d’acteurs (soi ou agent) individuels ou
collectifs. Dans le contexte de l’analyse transactionnelle de
l’action (Zacklad 2005b), les productions langagières
correspondent à des productions sémiotiques qui peuvent être
décomposées en un contenu sémiotique (pouvoir d’évocation
et effets potentiels) et un médium (support et forme
d’expression).
Dans les situations qui impliquent un accroissement de la
distribution
spatio-socio-temporelle
des
transactions
(accroissement de la chaîne des transactants, extension
temporelle et spatiale des échanges), il est nécessaire de
recourir à des supports pérennes qui faciliteront la circulation
des productions sémiotiques. Pour aider cette circulation, les
acteurs sont amenés à documentariser le support c'est-à-dire à
l’équiper d’attributs qui faciliteront la navigation à l’intérieur
de celui-ci et son rangement parmi d’autres supports.
Les diapositives numériques comme composantes d’un
corpus ressource dans un champ sémiotique transactionnel
Dans ce cadre d’analyse, les diapositives numériques
constituent un type particulier de « Documents pour l’Action »
(DopA) qui servent de support à la coordination de collectifs
éclatés et qui possèdent les caractéristiques suivantes :
réalisateurs multiples dont les relations ne sont pas
formalisées, fragmentation et relation argumentative complexe
entre les fragments, inachèvement prolongé, pérennité
(Zacklad 2004). Le cas discuté est une bonne illustration de
ces caractéristiques, comme le montrent notamment les
analyses précédentes : une diversité d’acteurs au sein d’un
réseau dont les contours sont fluctuants, des phénomènes
divers d’emprunts entre les diapositives, une trame
argumentative évolutive progressivement élaborée au fur et à
mesure de la circulation des transparents par messagerie. La
proximité entre certains jeux de diapositive et leur
regroupement au sein d’un répertoire électronique pourrait
nous amener dans ce cas à parler de dossier pour l’action,
chaque pièce du dossier correspondant à une composante d’un
flux documentaire (Gaglio & Zacklad 2006).
Plus généralement la question du champ discursif
considéré est posée (Maingueneau, 1983), de même que celle
de l’interdiscours déjà évoqué plus haut (Pêcheux, 1975), ou
encore de l’intertexte constituant un corpus, dans la
terminologie de Rastier (2001). Les jeux de diapositives,
souvent associées à des messages électroniques, des fichiers de
texte ou de liens internet, sont intégrés dans un écosystème
documentaire propre à l’activité considérée. Mais cet
écosystème devrait lui-même être resitué à l’intérieur d’un
ensemble de productions sémiotiques orales, réalisées à
l’occasion de présentations en réunion, de conversations en
face à face ou d’échanges téléphoniques. Dans les termes de
l’analyse transactionnelle de l’action, nous parlerons alors
d’un champ de productions sémiotiques interdépendantes dans
le cadre d’un projet transactionnel donné (champ sémiotique
transactionnel) réunissant un réseau de transactants plus ou
moins impliqués.
160
En un sens différent de celui de l’économie et en partie différent de celui de
Taylor et al.
126
127
A l’intérieur de ce champ, certaines productions
sémiotiques auront été réalisées sur des supports pérennes,
notamment électroniques, puis documentarisées. Elles
constituent alors le corpus documentaire du projet
transactionnel (corpus transactionnel) qui est un sousensemble du champ de productions sémiotiques dont
l’articulation plus ou moins effective pourra constituer un ou
plusieurs dossiers pour l’action. Le champ de productions
sémiotiques associées au projet transactionnel constitué de
performance orales et de documents sur support papier et
numérique constitue une ressource essentielle pour le travail
coopératif, à la fois pour en comprendre les enjeux, pour
bénéficier des productions intermédiaires et pour légitimer sa
participation au sein du collectif porteur du projet
transactionnel. S’il est facilement accessible, le corpus
transactionnel en est la ressource la plus facilement
convertible. C’est à l’intérieur de ce corpus que les acteurs
vont pouvoir puiser plus ou moins librement pour réaliser
leurs propres productions en ré-agençant les fragments
documentaires pour servir leurs objectifs.
Un « écrit théâtral » constitutivement incomplet et
intrinsèquement ambigu
Au sein du corpus étudié, les fichiers de diapositives ont
un statut particulier du point de vue des modalités de
médiation des transactions. Leur vocation première est de
servir de médiation lors de transactions synchrones dans
lesquelles les transactants sont co-présents. A ce titre, elles
sont constitutivement incomplètes puisqu’elles ont vocation à
être commentées oralement durant la présentation : elles
constituent des productions semi-indépendantes qui sont
conçues pour servir de support à une performance orale dans
une situation transactionnelle de référence. Pour bien les
interpréter, lors d’une lecture postérieure, la connaissance des
paramètres de cette situation transactionnelle est indispensable
(transactants présents, objectifs poursuivis, cadre spatiotemporel, etc.). Elles sont, de ce point de vue, comparables à
certains comptes-rendus de réunion dont le laconisme peut
s’expliquer par la référence implicite à une situation passée.
Les diapositives numériques sont souvent imparfaitement
documentarisées tant du point de vue de l’articulation interne
des fragments (contexte) que de celui de leur articulation avec
d’autres composantes du champ sémiotique (intertexte). Pour
le premier point, on considérera que les transitions
argumentatives qui s’inscrivent pour l’essentiel dans un
parcours arborescent, sont potentiellement moins subtiles
qu’elles ne peuvent l’être dans d’autres types de texte. Pour le
deuxième aspect, on considérera que leur inscription dans un
corpus de type dossier est souvent moins justifiée que ne
peuvent l’être des rapports ou des documents de type texte
rédigé ou formulaire au sein de dossiers professionnels types
(p.e juridique, démarche qualité, conception technique…). La
date de la réunion et la mention des participants présents,
quand ils sont mentionnés, tiennent souvent lieu d’unique
justification à la présence d’un jeu de transparent dans un
corpus transactionnel.
Comme vu en introduction, ce défaut de structuration et de
documentarisation des diapositives numériques a été souvent
critiqué. Nous souhaitons souligner, a contrario, que le flou
associé à ces documents est également une des raisons de leur
succès croissant. En relâchant les normes associées à la
production des textes écrits plus traditionnels, les diapositives
numériques imposent un nouveau genre d’écrit dont
l’interprétation s’appuie sur les situations d’oralité pour
lesquelles ils sont conçus (même si dans certains cas une
présentation orale n’a pas lieu). Avec les diapositives
numériques,
les
marques
de
l’oralité
dialogique
caractéristiques de certains écrits numériques de type chat ou
forum (Marcoccia, 2004) sont absentes puisque ces
présentations orales ne s’apparentent pas véritablement à des
dialogues et que le présentateur est présent pour accentuer et
nuancer le texte de la diapositive.
Néanmoins la lecture « après coup » du jeu de diapositives
tient compte des caractéristiques de la situation d’énonciation
originelle qui mixte lecture à voix haute et commentaire
additionnels. De ce fait, les diapositives numériques
s’apparentent à un écrit théâtral, essentiellement monologal,
qui à la différence des œuvres théâtrales publiées font souvent
l’économie de la présentation du contexte narratif, de
l’agencement de la scène et du statut des personnages. Ce
statut intermédiaire de l’écrit théâtral associé aux diapositives
numériques offre un double bénéfice aux rédacteurs, à la fois
d’ordre cognitif et interactionnel : cognitif car réduisant
l’investissement rédactionnel s’agissant de l’articulation
interne (l’argumentation proprement dite) et externe
(positionnement par rapport à d’autres documents antérieurs)
du document ; interactionnel car permettant au rédacteur de
préserver l’ambiguïté de sa production sémiotique, le caractère
constitutivement incomplet des
diapositives numériques
prémunissant des critiques menaçantes par l’invocation de
cette incomplétude, tout en autorisant la défense de certaines
opinions.
Conclusion
Arrivé au terme de ce parcours, l’idée que la situation de
réunion de présentation de diapositives numériques en milieu
organisé constitue un genre de communication, est retenue, audelà du support matériel qui permet la présentation. Cette
situation assure, parmi d’autres modalités, une fonction de
recomposition provisoire de collectifs éclatés, spécialement
dans le cadre du mode projet. Cela étant, dès lors que la focale
d’observation se relâche ou se resserre, la notion de genre ne
supporte plus l’analyse. En effet, en sus du moment de la
présentation des diapositives, les multiples échanges oraux,
écrits, en coulisse ou sur des scènes plus formelles, quadrillent
certainement davantage les processus organisationnels. En
entrant dans les détails du contenu de ces documents de
diapositives numériques, nous avons également pu observer la
multiplicité de sous-genres (étude, projet, document de travail
intermédiaire…) et le glissement possible des uns vers les
autres.
Références
Atifi H., Gaglio G. (2006), Apports d’une approche pragmatique et sociologique
pour l’étude des documents « numériques », article proposé au colloque CIDE.9
(colloque sur le document électronique).
Authier-Revuz, J. (1982) : Hétérogénéité montrée et hétérogénéité constitutive :
éléments pour une approche de l’autre dans le discours, DRLAV, 26 : 91-151.
Bakhtine M. (1978) : Esthétique et théorie du roman, Paris, Gallimard (première
édition : 1975).
Cihuelo J. (2005), Le quotidien du projet : solidarité, confiance et insécurité
psychologique, dans Minguet G. et Thuderoz C. (dir.), Travail, entreprise et
société : manuel de sociologie pour ingénieurs et scientifiques, Paris, PUF.
Ducrot, O. (1984) : Esquisse d’une théorie polyphonique de l’énonciation, In Le
dire et le dit, Paris, Minuit : 171-233.
Gaglio G., Zacklad M. (2006), La circulation documentaire en entreprise comme
analyseur de pratiques professionnelles : une étude de cas, Sciences de la société,
n°68 : 93-111.
Farkas (2006), Toward a better understanding of Power Point desk design,
Information Design Journal, n°14 : 162-171.
Kjeldsen J., (2006), The rhetoric of Power Point, Seminar.net, vol.1.
Licoppe C. (2000), Méthodes managériales, technologies de l’information et
formes de la communication dans les entreprises américaines à la fin du XIX
siècle, 7ème école d’été de l’ARCO, Bonas, 10-21 juillet.
Maingueneau, D. (1997) : L’analyse du discours, Paris, Hachette.
Marcoccia, M. (1994) : Le rôle de porte-parole dans le discours politique.
Analyse sociopragmatique, Thèse de doctorat en Sciences du langage, dirigée par
C. Kerbrat-Orecchioni, Université Lumière-Lyon 2.
Marcoccia M. (2004), La communication médiatisée par ordinateur : faire du face
à face avec de l’écrit, Journée d’étude de l’ATALA : 1-4.
Morel C. (1992), Les décisions absurdes, Paris, Gallimard.
Parker I .(2001), Absolute Power Point, The New Yorker, 28 mai.
127
128
Pêcheux, M. (1975) : Les vérités de La Palice. Linguistique, sémantique,
philosophie, Paris, Maspero.
Rastier F. (2001), Sémiotique et science de la culture,Linx, 44-45 : 149-168.
Rivière C. (1995), Les rituels profanes, Paris, PUF.
Stewart T. (2001), Ban it now ! Friends don’t let friends use Power Point,
Fortune, 5 février.
Taylor J., Coreen F., Giroux N., Robichaud D. (1996)? The communicational
basis of organization : between the conversation and the text, Communication
theory, 6:1, 1-39.
Tufte E. (2003a), Power Point is evil : Power corrupts, Power Points corrupts
absolutely, Wired, 11 septembre.
Tufte E. (2003b), The cognitive style of Power Point, Cheshire, CN : graphics
press LLC.
Yates J.A., Orlikowski W. (2006), The Power Point Presentation and its
corollaries : how genres shape communicative action in Organizations, dans
Zachary M., Thralls C. (eds), The cultural turn : perspectives on communicative
practices in workplaces and professions, Baywood, NY.
Zacklad M. (2004), Processus de documentarisation dans les documents pour
l’action (DoPa) : statut des annotations et technologies de la coopération
associées, Actes du colloque : Le numérique : impact sur le cycle de vie du
document pour une analyse interdisciplinaire, 13-15 octobre 2004, Editions de
l’ENSSIB. Montréal.
Zacklad M. (2005a), Transactions communicationnelles symboliques :
innovation et création de valeur dans les communautés d’action, in Lorino P.,
Teullier R., Entre la connaissance et l’organisation, l’activité collective, Paris,
Maspéro.
Zacklad M. (2005b), Transactions communicationnelles et actes de langages dans
l’économie des services, In Chabrol M., Orly-Louis C., Najab F. (eds),
Interactions communicatives et psychologies, Paris, Presses de la Sorbonne
Nouvelle.
Zarifian P. (1996), Travail et communication, Paris, PUF.
Conduire un projet d’entreprise avec les TIC.
Les dynamiques de l’acteur
Elizabeth Gardère
Université Bordeaux 1
Epistémé (EA 2971)
[email protected]
Au cœur du dispositif d’apprentissage des organisations,
les Technologies de l’Information et de la Communication
(TIC) s’intègrent dans un paysage aux frontières
dématérialisées, aux échanges démultipliés, aux systèmes
hiérarchiques décentralisés, délégués, délocalisés. C’est dans
ce contexte caractérisé par ces mutations que le mode projet se
développe en réponse aux attentes ponctuelles et pressantes du
marché. Simultanément, les pratiques de travail et usages des
TIC dans l’entreprise tendent vers de nouveaux modèles. La
conduite du changement se pense alors dans la complexité
d’organisations fondées sur la gestion des connaissances, la
capitalisation des savoirs et le travail en réseau pour tendre à
un autre accès et partage de l’information qui sont
stratégiques.
Les TIC sont une notion floue d’autant qu’elle associe la
communication à l’information, posant alors la question du
statut des espaces de collaboration qui s’ouvrent. Sont-ils des
espaces de communication ou d’information ? La définition
qui est donnée des Technologies de l’Information et de la
Communication est « un ensemble de ressources nécessaires
pour manipuler de l'information, et particulièrement des
ordinateurs et programmes nécessaires pour la convertir, la
stocker, la gérer, la transmettre et la retrouver. On peut
regrouper les TIC par secteurs suivants : les
télécommunications et les réseaux informatiques ; le
multimédia ; les services informatiques et les logiciels ; le
commerce électronique et les médias électroniques ; la
microélectronique et les composants ; l'équipement
informatique »161. Cet ensemble d’innovations technologiques
et d’outils traverse la société, investit les organisations et est
vecteur de changement en profondeur. Son arrivée sur la scène
sociétale donne naissance à des expressions telles que la
société de la connaissance ou la société de l’information où se
dessine une fracture numérique, forme d’exclusion sociale liée
aux TIC. L’apanage de ces technologies est de manipuler
161
Voir définition TIC : http://fr.wikipedia.org/wiki/Technologies_de_l%
27information_et_de_la_communication
l’information virtuellement. Rendue immatérielle, sa gestion
est tiraillée entre des contingences marchandes et l’utopie de
liberté.
Point d’équilibre du changement interne, l’action est
menée à la lumière des interfaces homme / machine et des
interactions entre les acteurs notamment dans un projet. Cela
suppose de nouvelles logiques participatives des salariés
imbriquant les interactions entre dispositifs organisationnels et
technologiques. En termes d’impact des TIC dans
l’organisation, cela ouvre la voie à un pilotage de l’action à
deux vitesses. D’une part, la conduite de projet compose avec
son environnement incertain dans sa gestion et son
management, d’autre part le développement des TIC
accompagne cette dynamique interne à l’organisation. Les
acteurs doivent alors apprendre de nouvelles techniques de
maîtrise de l’information, s’adapter à de nouvelles pratiques
professionnelles et modifier les usages traditionnels avec le
recours aux technologies (mobile, intranet). Cependant, tous
ne sont pas égaux face à l’accès à l’ordinateur, la maîtrise de
l’outil informatique et l’usage des informations. Les TIC
dynamisent les relations interindividuelles et par conséquent,
le caractère coopératif de l’apprentissage. A noter cependant
que le déterminisme technologique récupéré par cette
sociologie du travail dépend des choix faits par l’entreprise. Le
bilan d’études menées sur le sujet dresse un constat mitigé du
recours aux TIC. Trois avantages se distinguent
nettement dans l’organisation au niveau commercial, de la
gestion du personnel et du système d’information. Avec le
commerce électronique, les relations commerciales gagnent en
efficacité si l’on en juge par l’instantanéité des transactions et
la globalisation de l’offre de services, mais perdent en qualité
relation client faute de proximité et de personnalisation de la
démarche client. Du point de vue structurel, l’organisation est
moins cloisonnée et le partage de l’information y est facilité.
Sa flexibilité est alors gage d’adaptation plus compétitive au
marché. Cependant il ne faut pas perdre de vue que la gestion
des ressources humaines est avant tout, comme son nom
128
129
l’indique, la prise en compte de l’individu, de son parcours et
de ses compétences. Alors quelle place réelle est laissée au
salarié ? Enfin, la veille stratégique favorisée par les systèmes
d’information présente un atout considérable, tout autant que
le gain de productivité généré par le temps gagné à l’aide de
l’outil informatique, la baisse des coûts notamment avec la
délocalisation d’activités. Néanmoins, face à cette croissance
liée au rôle des TIC, autant d’emplois sont en suspend.
L’acteur au coeur des espaces de collaboration
Avec l’internationalisation et le développement des outils
de communication, l’acteur de la vie économique, à savoir le
salarié, comprend et accepte autrement les contingences du
monde du travail. L’organisation dans laquelle il évolue
s’adapte à de nouveaux espaces de liberté, ceux du virtuel, de
l’immatériel. L’environnement change avec une rapidité à
laquelle les organisations ont du mal à s’ajuster. Il s’agit d’un
environnement technique, informatique, électronique où la
gestion de l’information immatérielle est l’élément central du
développement loin des modes d’organisation de Taylor. Le
changement n’est plus la seule condition de survie de
l’organisation. Sa promptitude à s’adapter à un contexte
incertain dont les données sont éphémères et où le travail
s’effectue sur le mode de l’urgence162 est une condition
supplémentaire : « L’urgence est depuis longtemps liée
implicitement à l’efficacité ». Cela se traduit par « des outils
conceptuels et technologiques [qui] ont permis d’augmenter
l’efficacité du travail par une rationalisation des échéances et
un contrôle continu du travail. C’est en grande partie, la
dématérialisation du travail et des échanges qui a permis de
rendre matériellement possible le contrôle du travail »163.
Dans le prolongement de ces travaux, l’une des alternatives
aux méfaits de l’urgence est la création de nouveaux espaces
de collaboration visant à une meilleure circulation des savoirs.
Avec le foisonnement des moyens de communication, le
travail collaboratif qui « consiste en l’implantation de liens et
d’espaces de communications coopératifs visant à une
meilleure circulation des savoirs »164 rénove les moyens qui lui
était jusqu’alors alloués en mettant la problématique de
l’information et des connaissances au coeur de la stratégie de
l’organisation. Le courriel, l’e-commerce (B2B ou B2), l’eemployé et de nombreux autres espaces d’échanges ouverts par
les TIC abondent en ce sens. Mais quels sont les véritables
enjeux collaboratifs de ces moyens ? Sont-ils d’ordre
informationnel ou communicationnel ? Simon Fau apporte un
élément de réponse en précisant que « les technologies
d’information se transforment en technologie de
communication quand le nombre de personnes susceptibles
d’apporter les informations est équivalent à ceux qu peuvent
les lire. […] il existe une convergence des technologies
d’information et de communication qui permet de parler
d’espace de communication pour l’ensemble des platesformes de collaborations dans les organisations. »165. Ces
remarques ne sauraient circonscrire de manière exhaustive les
contours de la réponse, mais offre un cadre à la réflexion.
Des situations diverses et parfois paradoxales forment le
paysage des PME en matière d’usage et de déclinaison
stratégique des TIC. Un constat s’impose, il n'y a pas de
modèle de PME qui fonde l’analyse en matière de relations
aux TIC, mais une constellation d’entreprises, d’associations,
162
Gardère Elizabeth., « Cœxistence des cultures de l’urgence, de l’immédiateté
et de crise », in Carayol Valérie., (dir.), Vivre l’urgence dans les organisations,
L’Harmattan, coll. Communication des Organisations, Paris, 2005. pp. 137-145.
de collectivités et administrations dont les stratégies gravitent
autour de l’usage des TIC selon des variables
organisationnelles, communicationnelles et environnementales
toutes aussi singulières les unes que les autres. Une étude du
Lerass de l’université Toulouse 3 montre que « l'insuffisante
intégration des Technologies de l'Information et de la
Communication dans les PME et la faible appropriation de
ces technologies par les acteurs de ces entreprises n’est pas
inéluctable ». Les analyses de six chercheurs montrent que
chaque organisation a son mode d’appropriation des TIC et
« qu’il n'y a pas de modèle de " PME branchée " ».
Au même titre, il n’existe pas un profil type de travail
collaboratif dans un projet mené avec les TIC, mais une
diversité de comportements des acteurs en fonction du
contexte et des stratégies individuelles qui se greffent au projet
collectif.
Les individus qui participent au travail collaboratif
forment des réseaux d’acteurs au sens où ils sont « des
ensembles non structurés par lesquels transitent des flux
d’informations – entre des acteurs agissant dans la même
sphère d’activité, et caractérisés par leur capacité à anticiper
les changements de l’environnement, à décider des
adaptations nécessaires, et à les mettre en œuvre »166. De ce
point de vue, Jean-Pierre Boutinet167 expose toute la difficulté
du projet à prendre en compte la condition humaine lorsque
celle-ci se préoccupe du " faire advenir ", composante
spécifique au projet. En effet, « un projet est une démarche
spécifique qui permet de structurer méthodiquement et
progressivement une réalité à venir. Un projet est mis en
oeuvre pour élaborer une réponse au besoin d’un utilisateur,
d’un client ou d’une clientèle. Il implique un objectif, des
actions à entreprendre avec des ressources définies dans des
délais donnés »168. Dans ce contexte, le réseau, (à ne pas
confondre avec les relations interpersonnelles), est un agrégat
d’acteurs qui se reconnaissent les uns les autres au niveau de
leurs compétences et capacités d’influence, voire de leur
complémentarité pour agir et communiquer ensemble
indépendamment de leurs situations hiérarchique. Le réseau
constitue donc à l’instar du projet un système sans
concentration de pouvoir car tout jeu de pouvoir est à somme
nulle dans ce système spontané où le point d’équilibre tient à
l’émergence de contre-pouvoir quand surgissent des tentatives
de prise de pouvoir. Chacun participe à une aventure collective
au sens démocratique du terme par différence du système
hiérarchique. Le mode réseau rejoint les espaces de
collaboration au sens où il n’est que de l’immatériel, donc
avant toute chose, de la communication. Il s’agit de
communication puisqu’il s’agit d’un phénomène d’écoute et
d’échange à partir duquel va s’échafauder une réalité en
devenir, même si trop d’organisations sont encore souvent
confrontées à leur système de procédures qui heurte la
communication. En effet, on peut distinguer quelques limites
au réseau comme l’apparition de règles qui en rigidifient le
fonctionnement, ou bien la primauté de l’individualisme sur la
dynamique collective, voire le goût de la préservation des
avantages acquis, qui sont des freins au changement.
Là où les techniques de l’informatique et de l’électronique
pèsent sur la vitesse de transformation de l’environnement, les
logiques de l’individu sont complémentaires mais pas
nécessairement en accord avec les logiques de l’équipe projet :
166
Neuschwander Claude., L’acteur et le changement. Essai sur les réseaux,
Seuil, Paris, 1991.
163
Fau Simon., p. 107. Op. cit.
164
Fau Simon., p. 113. Op. cit.
167
Boutinet Jean-Pierre., Anthropologie du projet, PUF, Paris, 2005.
165
Fau Simon., p. 114. Op. cit.
168
AFNOR, norme X50-106.
129
130
« Intégré à un dispositif global de management de
l’information, le système de communication numérique devra
donc se positionner aussi comme vecteur d’un « apprentissage
communicationnel ». Se pose alors la question de repenser les
formes d’association (au sens de Gabriel Tarde ou de Bruno
Latour), de trouver les moyens de favoriser le développement
de pratiques communicationnelles collaboratives dans un
contexte numérique, les formes coopératives internes (facteur
clé d’appropriation de la démarche et de l’outil), de générer
aussi des représentations pertinentes et communes du projet,
de ses finalités ainsi que du système de d’information mis à
disposition des utilisateurs (architecture, contenus,
fonctionnalités,
interfaces).
Cet
apprentissage
communicationnel constitue une pédagogie du changement.
Cela ne va pas sans résistances et conflits »169
Toutefois, la caractéristique commune d’un projet et des
TIC est la visée transversale de la circulation de l’information
et le décloisonnement hiérarchique. Si un salarié reste
subordonné à sa hiérarchie fonctionnelle, le temps du projet il
est également dans une logique d’équipe recomposée autour
d’un chef de projet qui est en mesure de donner d’autres
consignes de travail. Dans cette configuration, le salarié peut
s’inscrire dans au moins trois types170 de travail collaboratif
avec les TIC : la coopération spontanée où s’expriment le
potentiel collaboratif et l’étude des comportements, la
coopération encouragée où s’expriment les conflits, la
confiance et les moyens de gratification des comportements
collaboratifs, la coopération orchestrée qui répond aux besoins
de l’organisation sur la base de l’engagement. Qu’il soit dicté
par l'entreprise, ou bien élaboré spontanément par les
individus, le projet est devenu indispensable pour ne pas
marginaliser l’organisation. Il traduit la recherche d'une
recomposition des liens sociaux en même temps que le travail
collaboratif tisse des liens entre les individus, les services, etc.
Comme le projet, le travail collaboratif qui recourt aux TIC
mobilise des acteurs responsables. Ils ont la capacité et la
volonté de prendre des initiatives pour développer
l’organisation à laquelle appartiennent. Ceci sous l’impulsion
et le contrôle d’un dirigeant qui assure la continuité de la
structure et gère les fractures générées par les changements. De
telle sorte que cela confère aux acteurs la possibilité d’être une
force de proposition permanente, tout en ayant une forme de
pouvoir, bien que non statutaire et non hiérarchique.
L’exemple du courriel :
communication coopérative
écran
d’une
pseudo
La tendance managériale veut que le recours aux TIC dans
l’organisation se généralise. L’expansion mondiale du ebusiness semblant irréversible, tous les efforts doivent porter
sur la bonne insertion du progrès technique dans la stratégie
d’entreprise. Pourtant, cet engouement est à considérer avec
certaines limites car avant tout, il s’agit davantage d’un outil
situé à l’interface entre divers acteurs plutôt qu’une panacée à
la circulation de l’information, aux prises de décisions, etc.
La question latente est de savoir dans quelle mesure les
169 Carmes M., Noyer J-M., Intranet-Extranet-Internet : un enchevêtrement
complexe. Processus d’apprentissage organisationnel et représentation des
dynamiques des organisations complexes. INTRACOM 2005, Québec, novembre
2005 http://www.grico.fr/
170
Ballard D.I., Seilbold D.R., « Organizational Members Communication and
Temporal Experience » in Communication Research, pp. 135-172, 2004. Cité in
Fau Simon., « Contenir les méfaits de l’urgence dans les organisations par la
création de nouveaux espaces coopératifs », pp. 107-120, in Carayol Valérie.,
(dir.), Vivre l’urgence dans les organisations, L’Harmattan, coll. Communication
des Organisations, Paris, 2005, p. 116. Voir la classification des trois types de
coopérations sous l’angle de l’acteur et celui du groupe.
TIC sont-elles un vecteur de changement ? Pour y répondre,
une piste semble se dessiner autour de la distinction entre
l’outil et ses pratiques organisationnelles qui ne sont donc pas
à confondre avec les stratégies émergentes et leurs enjeux liés
aux usages des TIC. Il s’agit de penser les politiques
d’information et de communication tout en envisageant que
« L’avenir appartient à ceux qui sauront investir dans
l’intelligence, la connaissance (et) l’innovation »171, à ceux qui
feront non seulement confiance à la technique mais aussi aux
hommes. Denis Benoît mentionne à ce sujet que « du fait
notamment de l'idéologie ambiante, le manager qui introduit
les N.T.I.C. dans son entreprise se livre à une action dont la
valeur positive efficiente pourrait, paradoxalement, bien plus
se situer dans l'ordre du symbolique que dans celui de la
stricte technique. Attention pourtant à ce qu'une utilisation
concrète mal mesurée de ces technologies n'en vienne à
compromettre les bénéfices escomptés »172. Les bénéfices étant
les changements dans les interactions des acteurs en situation
de travail, voire un leurre de transparence et de libre accès à
l’information. La valeur opératoire des TIC s’estime aux
dispositions prises au niveau des techniques. En référence à
Dominique Wolton, l’auteur ajoute que « Plus on possède des
techniques performantes qui permettent de gagner du temps et
de l’espace, plus il faut par ailleurs reperdre ce temps et cet
espace »173. En effet, les TIC ne démocratisent guère plus
l’information que le papier. Si elles banalisent l’accès, c’est
par excès d’information plus que par pertinence du message
voire de la composition de la liste de diffusion. Le jeu des
destinataires sélectionnés dans la liste des contacts d’une
messagerie amplifie d’un seul « clic » le nombre de récepteurs,
mais dans cette profusion, tous ne sont pas réellement
concernés par le message. L’écran de fumée informationnelle
créé par le foisonnement des courriels masque principalement
une vacuité de l’information stratégique plutôt que sa
construction sur un mode collaboratif. En effet, le rôle majeur
du courriel est essentiellement d’informer plus que de
communiquer, même si les pratiques de réflexivité tendent à
émerger. Celui-ci s’inscrit dans une logique de communication
ascendante ou descendante plus que participative, la
rétroaction laisse souvent trop peu de place à la négociation,
au débat, aux échanges constructifs, au profit d’échanges
d’informations construites, déconstruites, reconstruites mais
non concertées. Cela est d’autant plus vrai dans les
administrations qui sont très procédurières et compartimentées
au niveau des protocoles de prise de décision : « dans une
organisation trop cloisonnée, il suffit de se heurter à l’une des
cloisons transversales pour que la transmission de la
communication soit compromise, et parfois de façon
définitive »174. En effet, les administrations fonctionnent
essentiellement sur le mode de la circulation d’information de
manière unilatérale et très hiérarchisée où la capacité de
changement témoigne parfois d’une certaine inertie dans la
mise en œuvre d’innovations : « dans une entreprise trop
cloisonnée, il suffit de se heurter à l’une des cloisons
171
Montoux Alain., L'Impact des Technologies de l'Information et des
Communications sur les Pmes-Pmis, Publibook, Paris, 2002.
172
Benoît Denis., « Les N.T.I.C. dans l'entreprise : entre efficacité validée et effet
placebo ; de l'usage raisonné à la dérive pathologique » in actes du colloque
Pratiques de situations de communication et N.T.I.C., Université de Montpellier,
2003
173
Wolton Dominique., « Espace social et communication », in Médiation,
communication et influence - Séminaires thématiques, 1997, volume 2 du cycle
1995-1998, Centre de recherches du CELSA– EA 1498, SIC, p. 50. Cité in
Benoît Denis., « Les N.T.I.C. dans l'entreprise : entre efficacité validée et effet
placebo ; de l'usage raisonné à la dérive pathologique » in actes du colloque
Pratiques de situations de communication et N.T.I.C., Université de Montpellier,
2003.
174
Neuschwander Claude., L’acteur et le changement. Essai sur les réseaux,
Seuil, coll. L’épreuve des faits, Paris, 1991. P. 111.
130
131
transversales pour que la transmission de la communication
soit compromise, et parfois de façon définitive »175. Pourtant,
c’est paradoxalement le siège de décisions, voire de
changements. Les administrations et grandes entreprises
n’incarnent pas la facilité de communication, la capacité
d’adaptation ni le soutien à l’initiative individuelle. Malgré
cela, pour gagner en flexibilité interne, l’une des alternatives à
la hiérarchie pyramidale est, entre autres, le mode réseau qui
offre
un
« moyen
d’inverser
symboliquement
et
opérationnellement la pyramide hiérarchique : en donnant le
pouvoir et de l’initiative aux acteurs, en incitant le top
management à adopter un comportement de commando »176.
En effet, l’acteur projet est aussi un acteur réseau. Il s’inscrit
dans une temporalité tout à la fois éphémère et urgente. Il est
astreint à une double contrainte : celle du temps du projet et
celle de la circulation de l’information en temps réel. Ce qui
pose, entre autres, la question de la nature des traces laissées
face aux contingences du mode projet et face à la pertinence
des référentiels professionnels qui se construisent sur la base
d’écrits d’écran à l’occasion du travail collaboratif. Des
recherches de France Télécom R&D et du Laboratoire PSI
FRE CNRS INSA et Université de Rouen concluent que « Le
concept de document a sensiblement évolué depuis la mise au
point des techniques permettant sa dématérialisation. D'objet
entreposé dont l'accessibilité ne dépend que des capacités de
publication et de diffusion d'un éditeur, le document devient
un objet de communication et d'échange »177.
L’exemple du courriel a mis en exergue la bipolarité des
dimensions de la communication définit par Dominique
Wolton178. Les deux dimensions qui cohabitent sont d’une part
la dimension normative et d’autre part, la dimension
fonctionnelle. Ainsi, le courriel répond à la dimension
normative en favorisant les échanges et permettant une
certaine mutualisation, tandis que la dimension fonctionnelle
assure le fonctionnement des quatre composantes de
l’organisation que sont les flux commerciaux, financiers,
techniques et des ressources humaines, paramètres liés aux
contraintes organisationnelles de toute organisation et
impactés par le changement.
Les limites des TIC
Lucien Sfez affirme que « l’information n’est pas le
savoir. Pour trouver l’information adéquate, il faut disposer
du savoir préalable qui permette de poser les bonnes
questions »179. Or un constat s’impose. La confusion est
souvent de mise dans les organisations qui amalgament d’une
part la maîtrise de l’information et le pouvoir que cela donne,
avec d’autre part la connaissance et la compétence qui lui est
associée. L’outil que sont les TIC ne résout pas cette
dichotomie, elle aurait même tendance à augmenter la fracture.
La consommation à outrance de l’information dont la rapidité
de circulation est l’abondance laisse parfois perplexe conduit à
l’adage bien connu « trop d’information, tue l’information ».
Véhiculée tous azimuts l’information perd de sa valeur par sa
prolifération. Parfois juste lue, elle n’est même plus analysée.
Les TIC ouvrent tendent vers la marchandisation de
l’information à l’image de la consommation de masse, ce qui
ouvre les portes de l’information jetable.
Chaque utilisateur des TIC devient simultanément source,
destinataire, archive, d’une information dématérialisée :
« toute information communiquée apparaît comme toujours
dotée de certains effets spécifiques sur le récepteur (quoique
impossibles à parfaitement prédéterminer, calculer ou
maîtriser), ce qui signifie qu'elle n'est jamais neutre et que sa
forme est, au moins sur le plan pragmatique, c’est-à-dire sur
le plan des effets de la communication sur le comportement,
peut-être aussi importante que son contenu180. Dès lors,
d’après cette conception, rien en fait ne saurait être plus
hasardeux pour les entreprises que d’opérer automatiquement
l’amalgame, pourtant si séduisant et facile, entre ce qui est
communiqué -la masse considérable des transmissions
rapides autorisées par les N.T.I.C.- et le réel lui-même sans
que, toujours, la modulation, la discrimination,
l’approfondissement bref l’analyse, ne vienne réfléchir des
éléments qui, finalement, ne doivent être constamment
considérés que comme simple base de travail »181. L’utilisateur
est acteur parmi un groupe et traite une information
immatérielle. Dans ce réseau, « il ne devra pas seulement se
contenter de mettre en relation les utilisateurs ou groupes
d'utilisateurs mais également assurer les fonctions
d'intermédiation permettant de personnaliser l'accès et la
représentation de l'information »182.
Enfin, l’inégalité face aux usages des TIC s’exprime
également dans la gestion quotidienne du document
numérique. Elisabeth Kolmayer et Marie-France Peyrelong
démontrent que la valeur déclarative et la décontextualisation
des documents numériques sont des limites du
dispositif d’autant que « les usages, ou les difficultés d'usage,
de ce dispositif soulignent l'insuffisance d'une telle
transposition mais ne permettent pas d'extrapolations. Ils
suggèrent cependant quelques questions sur la notion de
document dans un dispositif informatisé de capitalisation des
connaissances » 183. Les auteurs constatent que la connaissance
se dégrade au profit d’une lecture collective souvent
dépourvue d’analyse faute des éléments contextuels ou par
abus d’appropriation, ce qui conduit à dénaturer l’information
originale. Il est alors difficile de parler de capitalisation des
connaissances.
Quelque soit le modèle, la modélisation comporte ses
limites. La dimension fonctionnelle reste une variable avec
laquelle l’usage des TIC doit compter d’autant que le flux
d’informations subit des changements. Le document d’entrée
et celui de sortie diffèrent car entre temps, des documents de
travail intermédiaire ont modifié l’information. Par ailleurs, les
contraintes inhérentes aux « organisations renseignent sur les
protocoles liés aux échanges de documents, donc sur les codes
nécessaires à la compréhension des informations »184.
Bibliographie
Ballard D.I., Seilbold D.R., (2004). « Organizational Members
Communication and Temporal Experience » in Communication
Research.
Benoît Denis., (2003). « Les N.T.I.C. dans l'entreprise : entre efficacité
validée et effet placebo ; de l'usage raisonné à la dérive pathologique »
in actes du colloque Pratiques de situations de communication et
N.T.I.C., Université de Montpellier.
180
175
Neuschwander Claude., p.111. Op., cit.
176
Voir Watzlawick Paul, Helmick Beavin Janet, Jackson Don D., Une logique
de la communication, Seuil, 1972.
Neuschwander Claude., p. 111. Op cit.
181
177
Gardes Joël., Dionisi Dominique., Trupin Eric., Labiche Jacques., Le
document dans un réseau de communautés d'intérêts : un avatar ?, Working
paper, Semaine du Document Numérique (SDN 2004), Forum pluridisciplinaire
"document et organisation", La Rochelle. 22 juin 2004.
178
179
Wolton Dominique, Penser la communication, Flammarion, Paris, 1997.
Sfez Lucien, « L’idéologie des nouvelles technologies », in Manières de voir,
n°46, 1999, pp. 20-22.
Benoît Denis., p. 5. Op., cit.
182
Gardes J., et al., op., cit.
183 Kolmayer Elisabeth., Peyrelong Marie-France., Partage de connaissances ou
partage de documents ?, 2005.
184
Voir à ce sujet les travaux de la Semaine du Document Numérique (SDN
2004), Forum pluridisciplinaire "document et organisation", La Rochelle. 22 juin
2004.
131
132
Boutary Martine., (dir.), (2003). TIC et PME, des usages aux
stratégies, L’Harmattan, Paris.
Carayol Valérie., (dir.), (2005). Vivre l’urgence dans les
organisations, L’Harmattan, coll. Communication des Organisations,
Paris.
Fau Simon., (2005). « Contenir les méfaits de l’urgence dans les
organisations par la création de nouveaux espaces coopératifs », pp.
107-120, in Carayol Valérie., (dir.), Vivre l’urgence dans les
organisations, L’Harmattan, coll. Communication des Organisations,
Paris.
Gardère Elizabeth., (2005). « Cœxistence des cultures de l’urgence, de
l’immédiateté et de crise », in Carayol Valérie., (dir.), Vivre l’urgence
dans les organisations, L’Harmattan, coll. Communication des
Organisations, Paris.
Montoux Alain., (2002). L'Impact des Technologies de l'Information
et des Communications sur les Pmes-Pmis, Publibook, Paris.
Neuschwander Claude., (1991). L’acteur et le changement. Essai sur
les réseaux, Seuil, coll. L’épreuve des faits, Paris.
Sfez Lucien., (1999). « L’idéologie des nouvelles technologies », in
Manières de voir, n°46.
Watzlawick Paul, Helmick Beavin Janet, Jackson Don D., (1972).
Une logique de la communication, Seuil, Paris.
Wolton Dominique., (1997). « Espace social et communication », in
Médiation, communication et influence - Séminaires thématiques,
1997, volume 2 du cycle 1995-1998, Centre de recherches du
CELSA– EA 1498, SIC.
Wolton Dominique., (1997). Penser la communication, Flammarion,
Paris.
TIC, organisation et communication :
Entre informativité et communicabilité
Sylvie Grosjean
[email protected]
Luc Bonneville
[email protected]
Université d’Ottawa
Introduction
Les technologies de l’information et de la communication
(TIC) occupent une place grandissante dans les organisations
et donnent naissance à de nouveaux modes de gestion et de
coordination : échange d’information, travail collaboratif,
suivi d’activités, archivage et documentation, encadrement et
contrôle des activités, surveillance à distance, etc. Les discours
managériaux font la promotion du partage de connaissances
présentant les TIC comme étant à la fois facteur de flexibilité
et un outil soutenant la collaboration (Benghozi, 2001). On
assiste donc de plus en plus à une instrumentalisation des
activités communicationnelles (Progiciel de Gestion Intégrée,
Groupware, Workflow, etc.) permettant aux organisations de
répondre à des logiques de productivité, d’efficience, de
contrôle et de réactivité. Ainsi, se met en place une gestion
informatisée du flux de travail assimilant les processus de
communication à des processus opérationnels. Par conséquent,
n’a-t-on pas tendance à instrumentaliser la communication au
sein des organisations afin de répondre à un impératif
productif au détriment d’une communication instrumentée
soutenant la production de sens et le partage de connaissances?
Pour répondre à cette question, dans un premier temps
nous proposerons une mise en perspective sociohistorique de
la tendance dans les organisations à instrumentaliser la
communication pour servir des objectifs de productivité,
d’efficience et d’efficacité. Nous tenterons notamment de
montrer en quoi les TIC sont associées à une posture
objectiviste empreinte d’une vision purement informationnelle
de la communication au sein de l’organisation. Dans une
seconde partie, nous soulignerons la nécessité d’ancrer la
vision de la communication organisationnelle dans le
paradigme de la communicabilité (Jacques, 1985) car les
organisations sont aussi soumises à un impératif créatif, c’està-dire à une création de valeur associée à des formes de
« coopération cognitive » (Zacklad, 2003) reposant sur la mise
en réseau de collectifs de travail.
1. Instrumentalisation de la communication dans
l’organisation
1.1 Les discours sur l’avènement d’une société de
l’information et de la communication : un point de départ
C’est avec la généralisation des services dans l’économie
(au cours des années 50) que se sont construits de nombreux
discours sur l’avènement d’une nouvelle société. On
commence alors à réfléchir à une nouvelle phase du processus
d’industrialisation qu’on va nommer de différentes façons,
sans parvenir à un consensus. L’arrivée de plus en plus
massive des TIC, à partir des années quatre-vingts, a pressé les
chercheurs à imaginer l’arrivée de cette « nouvelle société »
encore qualifiée de plusieurs manières (Tremblay, 1995, p.
132). On parle en effet d’une « économie de l’immatériel »,
d’une « société du savoir », d’une « société commutative »,
d’une
« société
de
la
communication »,
d’une
« cyberéconomie », d’une « société postbusiness », d’une
« société de l’information », d’une « économie de la troisième
vague », d’une « économie en réseaux », d’une « économie de
l’information », d’une « économie du savoir », etc. Si les
penseurs ne s’entendent pas sur le qualificatif le plus juste, ils
s’entendent toutefois pour dire que la société qui se construit
en est une fondée sur le savoir et l’information. Derrière ces
concepts se déploie une réalité que nous voulons précisément
questionner dans ce texte, en parlant non pas uniquement
d’une société de l’information mais de son ancrage dans le
paradigme de l’informativité, celui-ci privilégiant une vision
monologique et informative de la communication, orientée
avant tout sur la transmission185 d’un message porteur d’un
contenu186 (une information).
1.2. Les TIC comme instruments de transformation des
organisations et du travail
Comme l’ont déjà noté plusieurs, les TIC ont fait faire un
185
La transmission est définie comme l’acte de transporter une information dans
le temps et dans l’espace (Debray, 2001).
186
Il s’agit comme le souligne Taylor (1994), d’une approche a-contextuelle dans
laquelle le message est porteur d’un contenu (une information), qui est traité
comme ayant une seul signification (Giroux et Demers, 1998).
132
133
saut qualitatif au travail fondé sur le savoir ainsi que Becker
(1962 et 1964), Machlup (1962), Bell (1973), Porat (1977) et
plusieurs autres l’ont déjà analysé il y a plus de trente ans. Sur
le plan technologique, l’informatisation permet aux
organisations l’adoption d’un langage commun pour traiter
l’information, ce qui va constituer une véritable « bifurcation
technologique » qui apparaît comme un saut qualitatif
fondamental dans la mesure où elle offre aux différents
systèmes électroniques une possibilité de communication et
d’ouverture sur un mode « intelligent » (Caccomo, 1996, p.
11-12). C’est la généralisation des TIC dans plusieurs sphères
d’activité sociale qui a d’ailleurs conduit Gernaouti-Hélie et
Dufour à parler d’une véritable « révolution informationnelle »
(1999, p. 96).
Dans cette « nouvelle » économie, c’est le travail en tant
que tel qui a été appelé à se transformer le plus
significativement. Cette transformation découle notamment de
l’apparition de nouveaux emplois qui n’existaient pas
auparavant. En effet, Bühler et Ettighoffer (1995) parlent de
l’émergence de « l’homme polyactif » et des « nomades
électroniques » (networkers187). L’homme polyactif, ainsi que
Bühler et Ettighoffer le veulent, représente une nouvelle figure
du travail qui s’exprime à travers la capacité d’un individu
d’occuper plusieurs emplois au cours de sa carrière, favorisant
ainsi la circulation de son savoir dans les organisations pour
lesquelles il est appelé à travailler. En outre, dans ce nouveau
contexte socio-économique, l’utilisation des TIC, selon Bühler
et Ettighoffer, vont créer des réseaux d’affaires dans lesquels
le savoir circule d’un point à l’autre du globe. On a vu ainsi se
généraliser, dans plusieurs organisations, le « travail en réseau
» où le travailleur embauché, délocalisé, accomplit des tâches
de gestion de l’information pour éventuellement contribuer à
la construction d’un service en ligne (Ettighoffer, 1995, p.
225-226). Cela suppose que le travailleur de l’information soit
capable de traiter de l’information, de l’analyser, de la
réorganiser, de la mettre à jour, de la faire circuler, etc. ; bref
de lui donner une valeur ajoutée. L’information devient ici une
fin en soi, on pourrait dire réifiée en chose avec un pouvoir de
détermination profondément ancré dans son unité singulière.
C’est là le cœur du paradigme de l’informativité qui, par
nature, débouche sur un déterminisme certain.
D’autres, comme Castells, parlent de l’émergence du
paradigme informationnel (Castells, 1998, p. 284) dans lequel
le travail est réorganisé par les organisations qui optent pour
l’informatisation de l’ensemble de leurs activités. Dans ce
paradigme, pour Castells, les travailleurs possèdent des statuts
qui sont propres à l’utilisation qu’ils font des TIC et de
l’information. Six statuts fondamentaux, avec fonctions
particulières, peuvent être distinguées : les « capitaines » (qui
agissent au niveau de la décision et de la planification), les
« chercheurs » (qui lancent
les innovations), les
« concepteurs » (qui régissent les innovations), les
« intégrateurs » (qui voient à l’articulation des tâches
stratégiques de planification et d’innovation), les
« opérateurs » (qui assurent le bon fonctionnement des tâches
nécessitant de la créativité) et les « manœuvrés » (qui contrôle
les processus d’automatisation et de programmation) (Castells,
1998, p. 285). Pour Castells, une telle typologie doit toutefois
s’articuler aux différentes tâches justement reliées en réseau en
temps réel. Castells définit le rôle des « connecteurs » (qui font
des connexions pour eux-mêmes avec d’autres), des
« connectés » (qui travaillent avec d’autres en ligne
indépendamment de leur volonté), des « déconnectés » (qui
effectuent des tâches en parallèle au réseau de communication,
souvent à l’extérieur de celui-ci), des « décideurs » (à qui
reviennent les décisions finales), les « participants » (qui
participent aux décisions) et des « exécutants » (qui préparent
le levier menant aux décisions).
Bref, cette courte énumération sert surtout à mettre en
lumière les transformations de l’organisation du travail qui ont
eu cours, et qui continuent d’avoir cours, dans le cadre de
l’émergence de la société de l’information. Une question se
pose toutefois, de façon rétrospective : est-ce que les TIC ont
apporté les bénéfices escomptés pour les organisations ? On
pourrait répondre par la négative. En effet, le triomphe du
paradigme de l’informativité intimement lié à ce grand projet
d’informatisation, ou de généralisation des TIC dans toutes les
sphères d’activités sociales, a plutôt conduit à des échecs qui
se mesurent quelquefois en pertes financières pour les
organisations188. Ces pertes trouvent leur origine dans la
diminution de la productivité des organisations, celle qu’on a
pourtant voulu augmenter avec l’implantation des TIC. Or,
c’est en observant les logiques d’implantation des TIC dans les
organisations qu’on constate que ces technologies ont d’abord
et avant tout été déployées à des fins de rationalisation
(Bonneville, 2003b). L’information était dès lors considérée
sous une seule dimension, c’est-à-dire suivant sa capacité de
réseautifier l’organisation qui serait ainsi en mesure de
modifier considérablement sa temporalité propre à des fins de
productivité (Bonneville, 2003a, chapitre 4). Cependant, dans
ce paradigme, on a oublié de prendre en compte les usages,
souvent très complexes (Jouët, 2000 ; Chambat, 1994), des
TIC dans un contexte où l’information était considérée comme
étant capable à elle seule, spontanément, inévitablement,
mécaniquement, d’augmenter la productivité du travail
(Bonneville, 2003a, chapitre 4).
1.3. Quand les TIC répondent d’abord et avant tout à
des impératifs de rationalisation
Le paradigme de l’informativité, comme nous venons de le
voir, s’est construit dans la foulée des discours prônant les
bienfaits d’une société de l’information en voie d’émergence.
On a pensé que l’information, grâce aux TIC, pouvait
révolutionner les pratiques organisationnelles qu’on a voulu
rendre plus performantes. Or, cette performance tant convoitée
reposait la plupart du temps sur la volonté de rationaliser
l’organisation du travail, ce qu’on pensait possible avec la
transformation du rapport au temps et à la vitesse (Bonneville
et Grosjean, 2006). Par exemple, dans une recherche sur
l’implantation des TIC dans le secteur de la santé, nous avons
constaté qu’on investissait les TIC de la capacité à mettre en
place
un
reengineering
capable
de
transformer
structurellement le traitement et la circulation de l’information
dans les organisations de soins (Bonneville, 2003a, chapitre
4). L’idée sous-jacente était d’intensifier le travail médical,
c’est-à-dire l’optimiser, en contraignant les professionnels de
la santé à traiter plus de patients dans un temps de plus en plus
court, ce qu’on pensait possible en faisant circuler
l’information plus rapidement. C’est à cette condition qu’on
pensait que les professionnels de la santé pourraient soigner
les patients de façon optimum, plus productive, plus
performante. Pour atteindre cet objectif, il fallait cependant
surveiller et contrôler la pratique médicale. Les TIC allaient y
contribuer, étant l’instrument clé d’un contrôle continuel (et de
surcroît, en temps réel) des professionnels de la santé où ceuxci sont dès lors considérés comme des exécutants par les
décideurs qui deviennent ainsi les planificateurs. Dans cette
dynamique où l’information est instrumentalisée, les
professionnels de la santé sont contraints de s’adapter à ce qui
est déjà conçu et planifié, c’est-à-dire à des tâches devant être
effectuées selon des standards prescrits de façon
188
187
Voir aussi Ettighoffer (1995).
Voir, entre autres, les travaux sur le « paradoxe de productivité » (Rallet,
1997).
133
134
bureaucratique. Or, les effets pervers d’une telle logique
d’informativité se sont avérés nombreux dans la mesure où on
ne s’est que très peu préoccupé de la façon dont l’information
est comprise, assimilée et partagée, mais surtout dans quelle
mesure cette information fait sens pour les individus.
D’abord, nous pouvons constater une intensification du
travail médical fondée sur les principes tayloristes
d’organisation du travail industriel (Bonneville, 2003b). Cela
se conjugue avec une augmentation de la charge de travail des
professionnels de la santé, du fait que si les TIC accélèrent la
circulation de l’information, du même coup elles ouvrent un
potentiel d’augmentation de la cadence de travail. Le risque
étant ici d’alourdir considérablement la charge de travail
quotidienne des professionnels de la santé par la mise en place
d’une organisation où ils sont contraints d’effectuer le plus
grand nombre de tâches possible dans un temps de plus en
plus court. Or, la compression du temps n’est pas une
condition suffisante à l’amélioration de la qualité des soins.
Comme l’a montré Gadrey, l’informatisation du travail des
professionnels de la santé, même si elle change le rapport à
l’information, ne modifie pas pour autant « l’essentiel de leur
activité : recueillir des informations sur les symptômes,
diagnostiquer, rassurer, soigner, prescrire, suivre, etc. » (2001,
p. 70). Dit autrement, pour reprendre cet exemple, l’utilisation
des TIC, même si elle peut conduire à des économies de
temps, n’entraîne pas automatiquement une amélioration de la
qualité du travail médical et une amélioration de la qualité du
service offert au patient. Il nous est même permis de douter
que l’économie de temps ainsi procurée débouchera de façon
significative sur une amélioration de la qualité des services de
soins, puisqu’on sait que les services de soins reposent
fondamentalement sur des interactions humaines, des
processus sociaux, comme l’ont montré plusieurs chercheurs
en sociologie et en économie des services et de
l’information189.
2. Vers une communication instrumentée au sein des
organisations
2.1. Travail en réseau et création de valeur : de la
nécessité de s’ancrer dans le paradigme de la
communicabilité (Jacques, 1985)
De nombreux chercheurs (Midler, 1996 ; Cohendet et
Diani, 2003) font le constat que la collaboration et la
communication sont au cœur des processus de développement,
d’adaptation et d’anticipation des organisations car elles
favorisent la création de valeur associée à des formes de
« coopération cognitive » (Zacklad, 2003). Les organisations
s’appuient sur les TIC pour soutenir le travail collaboratif et
l’échange de connaissances. Ces technologies sont le vecteur
d’un nouveau mode de productivité qui se caractérise par une
mise en réseau des énergies, des savoirs afin de répondre avec
plus de « créativité », plus « d’intelligence » aux nouveaux
défis économiques. En effet, les organisations dépendent en
grande partie de l’ensemble des connaissances et des savoirsfaire en action, construits et partagés par les individus qui y
travaillent. Mais, comme nous l’avons évoqué un peu plus
haut pour le cas du secteur de la santé, la mise en place de
dispositifs informatiques visant, par exemple, à capitaliser les
connaissances
afin
de
constituer
une
mémoire
organisationnelle se centre sur l’outil technique et le contenu
véhiculé par cet outil190, réduisant le processus de
189 Voir, entre autres, J. Oulès, La psychologie médicale, Toulouse, Privat,
1966. ; P.-H. Keller et J. Pierret (sous la direction), Qu’est-ce que soigner ? Le
soin, du professionnel à la personne, Éditions La Découverte et Syros, Paris,
2000. ; et A. Philippe et C. Herzlich, Sociologie de la maladie et de la médecine,
Paris, Nathan, 1994.
190
C’est le cas par exemple de l’implantation du Dossier Patient Informatisé
communication à une simple transmission de connaissances
encapsulées dans un support matériel (Grosjean, 2006).
Autrement dit, l’hégémonie d’un modèle axé sur une
conception « technique » de la transmission laisse de côté
toute la question du sens co-construit intersubjectivement à
travers « un tissu de conversations » (Taylor, 1988 ; Taylor et
al., 1996). Or, toute communication (même médiatisée par les
TIC) est une interaction, une transaction entre locuteurs, c’està-dire un phénomène dynamique produisant une
transformation (Allard-Poesi, 2003 ; Brassac, 2005). Il n’y a
donc pas des émetteurs et des récepteurs mais des
interlocuteurs engagés dans un processus de construction
collective de sens.
En conséquence les processus communicationnels
s’accomplissant au sein d’une organisation doivent être
abordés comme le lieu de l’engendrement d’un sens coconstruit (Trognon et Brassac, 1992), sens dont les
interlocuteurs sont co-responsables. L’idée n’est plus de
communiquer à quelqu’un une information, mais de
communiquer avec quelqu’un. Autrement dit, loin d’être
uniquement à l’origine ou à l’aboutissement d’un échange
communicationnel, l’individu participe à cet échange. Ainsi, il
s’y engage afin de soutenir un processus de communication où
chacun se veut co-auteur des messages produits à l’intérieur
d’un espace interlocutif qu’est l’organisation. Nous défendons
donc l’idée d’une communication organisationnelle ancrée
dans le paradigme de la communicabilité (Jacques, 1985) en
refoulant l’analogie télégraphique et en posant la construction
d’une intercompréhension comme fondamentale.
2.2. De la nécessité de repenser l’articulation TICActeur-Organisation
Ancrer la communication organisationnelle dans le
paradigme de la communicabilité est pour nous l’occasion de
mener une réflexion sur la place et le rôle des TIC (vu comme
des « artefacts »191 technologiques) dans les processus de
communication et de collaboration des individus en situation
de travail. Nous soutenons une vision des TIC en tant
qu’artefact inscrit dans une dynamique interactionnelle
(Grosjean, 2004) et inséré dans un ensemble d’usages afin de
souligner leur caractère hybride, à la fois artefacts
informationnels192 (Norman, 1993) et acteur social (Latour,
1994 ; Semprini, 1995). Par exemple, les situations de travail
collaboratif, rendues possible par de nombreux outils
informatiques, ne peuvent pas être réduites à une simple mise
en commun d’informations, de documents ou de travaux.
Autrement dit, il est impossible de considérer les TIC comme
de simples artefacts informationnels, d’autant plus si l’objectif
organisationnel est de favoriser le partage de connaissances et
de soutenir un impératif créatif. En effet, collaborer à distance
implique de produire en commun, de construire collectivement
du sens. Pensons notamment aux communautés de pratiques
(Wenger, 1998), aux communautés virtuelles d’apprentissage
(Grosjean, 2005) dont l’existence même repose sur la
dynamique des interactions communicatives entre les membres
de la communauté.
Ainsi, collaborer à distance ou travailler en réseau exige de
construire des liens intenses, étroits ; mais aussi une
implication, un engagement des individus afin de permettre
l’émergence d’un collectif flexible, aux contours
d’appartenance évolutifs, souples et répondant à un besoin
pour l’organisation de communication de savoirs, de
(DPI).
191
Les « artefacts » sont des instruments, entendant par là, « une entité bicéphale,
mixte, à la fois artefact et mode d’usage » (Rabardel, 1995, p.91).
192
Un artefact informationnel est « un outil artificiel conçu pour conserver,
exposer et traiter l’information dans le but de satisfaire une fonction
représentationnelle » (Norman, 1993, p.18)
134
135
construction de connaissances. Pour ce faire, il est important
de bien saisir la place des TIC dans l’activité quotidienne des
travailleurs parce qu’elles ont un statut d’acteur social de part
leur capacité à agir et à faire agir en modifiant les interrelations (Semprini, 1995). Il est donc nécessaire de sortir les
TIC du statut réducteur d’instrument ou de simple élément de
médiation qu’elles occupaient traditionnellement dans la
relation de l’agent à son environnement de travail afin de les
considérer comme une composante cognitive centrale des
systèmes d’activité et de coopération dans les
organisations (Grammacia, 2001). Par conséquent, cette vision
des TIC comme artefact reconfigurant l’espace de travail, les
interactions sociales et les processus sociocognitifs implique
de repenser leur intégration dans une dynamique
organisationnelle et leur rôle dans l’émergence d’un « agir
professionnel ».
Dans le cadre de recherches menées dans le secteur de la
santé (Bonneville, 2003a), nous avons pu constater que
l’implantation de systèmes informatiques est souvent pensée
de manière isolée par les gestionnaires et suivant une logique
« technocentrée » (Rabardel, 1995). Pourtant de nombreux
travaux dans le domaine de la conception ont souligné les
dangers d’une prise en compte trop tardive des besoins des
utilisateurs lors de la conception et de l’implantation d’un
dispositif technique (Grégori, 1999 ; Grosjean et al., 1996 ;
Grosjean et al., 2000). Un outil de travail collaboratif, un
système de gestion des connaissances, n’ont de « sens et
d’efficacité que s’il(s) s’intègre(nt) dans une démarche plus
globale et préalable d’un projet humain » (Badillo et Rizza,
2004, p.67). Les TIC doivent donc être considérées comme des
artefacts qui proposent des ressources, supportent la
structuration et l’exécution d’actions humaines tout en
reconfigurant l’activité communicationnelle et sociocognitive
des individus. Ainsi, ces technologies ne doivent pas servir
uniquement de prothèses informationnelles mais contribuer à
l’actualisation d’un « agir professionnel », et pour se faire leur
intégration au sein de l’organisation doit être pensée selon une
logique intégrative ou « anthropocentrée » (Rabardel, 1995).
Autrement dit, une logique de conception et d’intégration
centrée sur les besoins communicationnels et professionnels
des individus qui composent l’organisation.
Conclusion :
L’implantation des TIC au sein des organisations favorise
le développement de logiques de travail plus horizontales et
entraîne des changements majeurs, notamment une redéfinition
des processus communicationnels, des rôles et une
recomposition de l’organisation autour de l’usage du système
informatique (Teulier, 2005). Par ailleurs, les recherches
menées en milieu organisationnel (Bonneville, 2003a ; Cardon
et Licoppe, 2000) font apparaître de très nombreuses tensions
et un travail incessant d’ajustement entre un impératif
productif et un impératif créatif. « La description de ces
tensions constitue un enjeu à la fois en termes
organisationnels, afin de comprendre les transformations
actuelles du monde productif, en termes cognitifs afin de
saisir, de façon détaillée, les tensions qui pèsent sur les acteurs
plongés dans les nouveaux univers de travail » (Cardon et
Licoppe, 2000, p. 22).
Références :
Allard-Poesi, F. (2003). « Sens collectif et construction collective du sens », dans
Le sens de l’action (coordonnée par B. Vidaillet), Paris, Vuibert, p. 91-112.
Badillo, P-Y., Rizza, C. (2004). « Transmission des savoirs : le rôle catalyseur
des technologies », dans Médiation et représentation des savoirs (sous la
direction de J.-P. Metzger), Paris, L’Harmattan, p. 61-71.
Becker, G. (1962). « Investment in Human Capital: A Theoretical Analysis »,
Journal of Political Economy, Vol. 70, p. 9-49.
Becker, G. (1964). Human Capital : A Theoretical and Empirical Analysis with
Special Reference to Education, New York, Columbia University Press.
Bell, D. (1973). The Coming of Post-industrial Society : A Venture in Social
Forecasting, New York, Basic Books.
Benghozi, P.J. (2001). Technologies de l’information et organisation : de la
tentation de la flexibilité à la centralisation, Gestion 2000, Vol. 2, Mars-Avril
2001.
Bonneville L. (2003a). La mise en place du virage ambulatoire informatisé
comme solution à la crise de productivité du système sociosanitaire au Québec
(1975 à 2000), Thèse de doctorat en sociologie, Montréal, Université du Québec
à Montréal.
Bonneville, L. (2003b). « Informatisation et représentation de la temporalité »,
dans Des sociétés en mutation (sous la direction de Jean-Pierre Dupuis et Pierre
Beaucage), Montréal, Nota Bene, 2003, p. 77-92
Bonneville, L. (2002). « La temporalité du réseau Internet est-elle encore moderne
? », dans Internet, nouvel espace citoyen ? (sous la direction de Francis
Jaureguiberry et Serge Proulx), Paris, L’Harmattan, p. 205-222.
Bonneville, L., Grosjean, S. (2006). « L’Homo-Urgentus » dans les
organisations : entre expressions et confrontations de logiques d’urgence. Revue
Communication et Organisation, GRE/CO, N°29, Bordeaux, France [à paraître].
Bühler, N., Ettighoffer, D. (1995). « L’homme polyactif », dans Gérard Blanc
(sous la direction), Le travail au XXIe siècle : mutations de l’économie et de la
société à l’ère des autoroutes de l’information, Paris, Dunod, p. 203-218.
Brassac, C. (2005). Computers and knowledge: a dialogical approach, AI &
Society, Springer Verlag London Ltd, accessible en ligne : www.springerlink.com
Caccomo, J.-L. (1996). Les défis économiques de l’information : la
numérisation, Paris, L’Harmattan, p. 11-12.
Cardon, D., Licoppe, C. (2000). « Technologies de l’information et de la
communication en entreprise : théories et pratiques », Septième École d’été de
l’ARCo, Bonas, France, 10-21 juillet 2000.
Castells, M. (1998). La société en réseaux - L’ère de l’information, Paris,
Fayard.
Chambat, P. (1994). « Usages des technologies de l'information et de la
communication (TIC) : évolution des problématiques », Technologies de
l'Information et Société, 6(3), p. 249-270.
Cohendet, P., Diani, M. (2003). L’organisation comme une communauté de
communauté : croyances collectives et culture d’entreprise, Revue d’Économie
Politique, Nº5, p. 697-722.
Debray, R. (2001). « Les relations entre transmettre et communiquer »,
Conférence au Palais Pharo, Marseille, Université de la Méditerrannée,
novembre 2000.
Dupuy, F. (1998). Le client et le bureaucrate, Dunod, Paris.
Ettighoffer, D. (1995). « Networkers, les nomades électroniques », dans Gérard
Blanc (sous la direction), Le travail au XXIe siècle : mutations de l’économie et
de la société à l’ère des autoroutes de l’information, Paris, Dunod, p. 219-236.
Freeman, C. (1988). Technical Change and Economic Theory, London, Pinter,
1988.
Gadrey, J. (2001). Nouvelle économie. Nouveau mythe ? Suivi de que reste-t-il
de la nouvelle économie ?, Paris, Flammarion.
Gernaouti-Hélie, S., Dufour, A. (1999). De l’ordinateur à la société de
l’information, Paris, Presses Universitaires de France.
Giroux, N., Demers, C. (1998). Communication organisationnelle et stratégie,
Management International, 2(2), p. 17-32.
Grammacia, G. (2001). Les actes de langage dans les organisations, Collection
Communication des Organisations, L’Harmattan, Paris.
Grégori, N. (1999). Étude clinique d’une situation de conception de produit.
Vers une pragmatique de la conception, Thèse de doctorat en psychologie,
Université Nancy 2, Nancy, France.
Grosjean, S. (2006). Mémoire et communication au sein des organisations : Pour
le développement d’une approche pragmatique, Colloque « La recherche en
communication organisationnelle : ses défis, ses enjeux, ses débats », 74ème
Congrès de l’ACFAS, « Le Savoir trame de la modernité », Université McGill,
Montréal (Canada), 15 mai 2006.
Grosjean, S. (2005). Communautés virtuelles et communication médiatisée par
ordinateur : une analyse des formes de « ritualisation sociale », Revue
d’Interaction Homme-Machine, RIHM, Paris (France), p. 109-131.
Grosjean, S., (2004). Analyse d’une forme de communication instrumentée lors
d’activité collaborative de conception, Revue Les Enjeux de l’information et de la
communication, Grenoble, Université Stendhal. Consultable en ligne :
http://www.u-grenoble3.fr/les_enjeux/2004/Grojean/index.html
Grosjean, S., Fixmer, P. et Brassac, Ch. (2000). Those psychological tools inside
the design process, Knowledge-Based Systems 13, Elsevier Science, p. 3-9.
Grosjean, S., Grégori, N., Brassac, C. (1996). La conception distribuée d'un
système de production, une coopération en temps réel, Actes de la Conférence
internationale sur l'Apprentissage Personne Système, CAPS'96, 8-9 Juillet 1996.
Jacques, F. (1985). L’espace logique de l’interlocution, Paris, Presses
Universitaires de France.
Jouët, J. (2000). « Retour critique sur la sociologie des usages », Réseaux, 100, p.
487-521.
Keller, P.H. et J. Pierret (sous la direction), (2000), Qu’est-ce que soigner ? Le
soin, du professionnel à la personne, Paris, Éditions La Découverte et Syros.
Latour, B. (1994). Une sociologie sans objet ? Remarque sur l'interobjectivité,
Sociologie du travail, XXXVI 4/94, p. 587-607.
Machlup, F.E. (1962). The Production and Distribution of Knowledge in the
United States, Princeton, Princeton University Press.
Midler, C. (1996). « Modèles gestionnaires et régulations économiques de la
conception », dans de Terssac, G., Friedberg, E., Coopération et conception,
Octarès Édition, Toulouse (France).
135
136
Norman, D. (1993). Les artefacts cognitifs, Raisons Pratiques, Les objets dans
l'action, Paris, Éditions de l’école des Hautes études en Sciences Sociales, p. 1534.
Oulès, J. (1966). La psychologie médicale, Toulouse, Privat.
Philippe, A., Herzlich, C. (1994). Sociologie de la maladie et de la médecine,
Paris, Nathan.
Porat, M.U. (1977). The information economy: definition and measurement, US
Department of Commerce.
Rabardel, P. (1995). Les hommes et les technologies : Une approche cognitive
des instruments contemporains, Paris, Armand Colin.
Rallet, A. (1997). « L’efficacité des technologies de l’information et de la
communication à l’étape des réseaux », dans Marie-Christine Monnoyer-Longé
(sous la direction), L’entreprise et l’outil informationnel, Paris, Montréal,
L’Harmattan, p. 85-106.
Rocher, G. (1969). Introduction à la sociologie générale.
Tome 2.
L’organisation sociale, Montréal, Éditions Hurtubise HMH, p. 238.
Semprini, A. (1995). L'objet comme procès et comme action, Paris, L'Harmattan.
Taylor, J. (1988). Une organisation n’est qu’un tissu de communications, Cahier
de Recherche en communication, Département de Communication, Université de
Montréal.
Taylor, J. (1994). The Two Worldviews of Communication Theory, Cahier de
Recherche en communication, Département de communication, Université de
Montréal.
Taylor, J., et al. (1996). The Communicational Basis of organization : Between
the Conversation and the text, Communication Theory, Vol.5, Nº1, p.1-39.
Teulier, R. (2005). « Assister l’activité et l’organisation à travers des systèmes de
base de connaissances », dans Entre connaissance et organisation : l’activité
collective. L’entreprise face au défi de la connaissance (sous la direction de R.
Teulier et P. Lorino), Paris, La Découverte, p. 266-284.
Tremblay, G. (1995). « La société de l’information : du fordisme au gatesisme »,
Communication, vol. 16, no.2, p. 136.
Trognon, A., Brassac, C. (1992). L'enchaînement conversationnel, Cahiers de
linguistique Française, 13, p. 76-107.
Wenger, E. (1998). Communities of Practice, Learning, Meaning and Identity,
Cambridge University Press, Cambridge.
Zacklad, M. (2003). Transactions communicationnelles symboliques et
communauté d’action : réflexions préliminaires, présentation au colloque de
Cerisy de septembre 2003 organisé par P. Lorino et R. Teulier, Archive SIC,
http://archivesic.ccsd.cnrs.fr/
Les incidences microéconomiques des nouvelles technologies
Sur la structure des Entreprises.
HANEN Teka,
,[email protected]
HAMDI Helmi
,[email protected]
CAE / Université Aix-Marseille 3
Résumé : Face aux changements rapides que subit notre économie et ce du fait de la globalisation des marchés et de l’impact des
nouvelles technologies d’informations et de communications (NTIC), la plupart des agents économiques dans le monde entier se
sont rendus compte de la valeur du capital immatériel et plus particulièrement de leur capital intellectuel.
Suite à l’émergence de la nouvelle économie (l’économie basée sur les nouvelles technologies), l’autonomie de l’action a
augmenté chez la plupart des agents et ce quelque soit leurs niveaux hiérarchiques.
Ce papier trace les caractéristiques de la nouvelle économie et son impact sur le fonctionnement des firmes.On étudie aussi le rôle
de l’entrepreneur- innovateur Schumpétérien et sa renaissance suite à l’émergence de l’économie de connaissance basée sur les
NTIC.
Knowledge has been at the heart of economic growth and the gradual rise in levels of social well-being since time immemorial
The ability to invent and innovate, that is to create new knowledge and new ideas that are then embodied in products, processes
and organizations, has always served to fuel development. And there have always been organizations and institutions capable of
creating and disseminating knowledge: from the medieval guilds through to the large business corporations of the early
twentieth century, from the Cistercian abbeys to the royal academies of science that began to emerge in th seventeenth century.’
Economic Fundamentals of the Knowledge Society, Paul A. David and Dominique Foray
Introduction
Depuis quelques années, notre économie a connu une
phase de transition vers une économie caractérisée par des
différentes formes- immatérielles- de ressources économiques
(weightless economy, Quah, (1999)).
Au début des années 1990, rares sont les entreprises
équipées par des micro-ordinateurs, et pratiquement
inexistants chez les agents économiques, le téléphone fixe
avait la forme analogique, les matériaux audiovisuels
numériques étaient réservés uniquement à un usage
professionnel tel que les activités bancaires et financières, pas
de téléphones mobiles et Internet n’existaient pas, ,
l’information été une source rare et chère.
Depuis, l’électronique s’est imposée dans toutes les
activités (commerciales, financières, économiques…) et encore
chez les particuliers. De nombreuses entreprises ont introduit
des systèmes informatiques hautement performants, et d’autres
se spécialisent dans la fabrication de l’industrie intelligente et
le matériel lourd tel que l’informatique, la fabrication des
ordinateurs et des logiciels, les télécommunications, et les
réseaux. Un nouveau secteur économique est né, celui des
technologies de l’information et de la communication (TIC).
L'OCDE l’a défini comme "l'ensemble des secteurs
d'activités économiques qui contribuent à la visualisation, au
traitement, au stockage et à la transmission de l'information
par des moyens électroniques".
Pour certains économistes, la mise en commun des
connaissances, sa capitalisation dans les entreprises à travers le
développement des réseaux, l’identification, la collecte, le
traitement des informations sur les clients et pour les clients,
sont désormais au cœur du processus de la création des
richesses et signeraient la naissance d’une « nouvelle
économie »( Oliviers et al, 2000) dont la caractéristique
136
137
centrale est le transport instantané de données immatérielles et
la prolifération des liaisons et des réseaux électroniques. Donc
le passage de l’économie industrielle à l’économie de
l'information se manifeste en premier lieu à travers la diffusion
des nouvelles technologies informationnelles dans tous les
secteurs de l’activité économique permettant l’amélioration de
la transparence des marchés et la création de nouvelles
opportunités .
Cet article étudie un éventail de questions qui sont
intimement liées entre elles, tels que :
Quelles sont les caractéristiques de la société
d’information ? En quoi diffère-t-elle de la société des biens
matériels ? Quelle est l’incidence précise de la nouvelle
économie
« économie fondée sur le savoir » sur le
développement de la société en générale et de l’entreprise en
particulier ? Et quelles sont les politiques essentielles prises
par l’entrepreneur afin d’engranger les effets bénéfiques de la
nouvelle économie ?
Dans cette section on va présenter la nouvelle économie,
qui trouve son origine dans les produits fondés sur la
connaissance et son potentiel pour la digitalisation, ses
caractéristiques et ses avantages ainsi que sa contribution pour
l’amélioration de la performance macroéconomique.
Ainsi notre travail se divise en deux grandes parties :
Premièrement, nous allons essayer d’établir les
caractéristiques de la nouvelle économie, ce qui la différencie
de l’économie traditionnelle, ses enjeux et son apport ;
Et deuxièmement, nous allons tenter de montrer la
contribution de la nouvelle économie dans le développement
de la société d’information et ce, en se situant dans le cadre de
la firme, ce qui mettra en avant le rôle de l’entrepreneur.
I- La nouvelle économie : l’émergence de l’économie de
la connaissance
Le phénomène de la « nouvelle économie » est apparu
durant la seconde moitié des années quatre-vingt-dix suite à
une phase d’expansion de l’économie américaine supérieure à
celle des années 1950-1970193, qui a été marquée par une
croissance économique ininterrompu supérieure à 4% en
moyenne annelle, sans pour autant que des tensions
inflationnistes apparaissent alors même que le taux de
chômage a particulièrement régressé (4% de la population
active) (Schreyer, (2000)).
Cette période exceptionnellement longue d’expansion sans
inflation a été accompagnée par le développement des
nouvelles technologies qui vont améliorer les modes de
production des firmes et mènerons à une plus grande efficacité
du marché :
“These change as a whole will improve macroéconomics
performance by promoting new industries gain in the
efficiency of allocation of productive ressources, and increase
accumulation of human capital” ( Tetsuya Inoue).
Cet impact macroéconomique aurait dû être un nouvel âge
d'or, Ontiveros (2000) signale que le commencement de
l'année 2000 a vu comment l'économie américaine a battu le
record mondial de croissance sur une longue période ; ce
record était resté incontesté depuis les années 60 caractérisé
par un accroissement régulier des taux de développement de la
productivité qui, malgré un emploi croissant et des niveaux
élevés de la demande des ménages et des entreprises en
matière
de
consommations
et
d'investissements
respectivement, aurait assuré la stabilité du niveau des prix. En
outre, comme cela a été le cas pendant le boom des années 50
et 60, le degré d'ouverture des économies nationales aurait
également augmenté au cours des années 90 et, avec lui, la
valeur du commerce international aurait connu un plus grand
essor (Lera Lopez et al, 2001).
1- Vers une société de l’information
Le passage de l’ancienne économie à la nouvelle est
caractérisé par l’intégration de nouvelles technologies de
l’information et de télécommunication dans les différents
secteurs de l’activité économique, d’après l’OCDE la nouvelle
économie illustre la part de l’ensemble du stock matériel et
logiciel qui est de nature informatique (hors matériel de
communication).
Elle indique que plus de 30 % de cet ensemble est de
nature informatique dans les services juridiques, les services
aux entreprises et le commerce de gros. Les secteurs de
l’éducation, des services financiers, de la santé, du commerce
de détail et différentes industries manufacturières (instruments,
imprimerie, édition) ont aussi une part relativement importante
de capital informatique dans leur stock total de matériel et de
logiciels OCDE (2003.) . Castell ajoute :
« Une société peut être dite nouvelle quand il y a
transformation structurelle dans les relations de production,
dans les relations de pouvoir, dans les relations entre les
personnes. Ces transformations entraînent une modification
également notable de la spatialité et de la temporalité sociales
et l'apparition d'une nouvelle culture ».
Bernard Bobe, signale que nous sommes bien rentrés dans
une nouvelle période de l’histoire économique. Les enjeux ne
sont plus seulement en Europe , comme au début du 19°
siècle ! les défis ne sont plus en Europe, en Amérique du Nord
et au Japon, comme durant le XX° siècle ! C’est l’ensemble du
monde, de la « planète terre » qui est concerné tout à la fois
par cette troisième révolution technologique. l’Internet
représente aujourd’hui le centre et le carrefour des mutations
en cours, elle permet l’ouverture des portes aux informations
mondiales, elle change profondément l’accès à l’information et
à la connaissance194
L’intensification des activités de recherche et l’émergence
de la société des réseaux et des savoirs dépendent cependant,
comme l’ont montré de nombreux auteurs (de Rougemont,
1989, Castells, 2001, Ansart, 2002), de la capacité de
transformer les données en informations et celles-ci en savoirs.
Ajoutons que cette transformation de l’information en savoir
dépend principalement de la communication que l’on peut ici
définir comme le résultat d’un échange d’informations,
intelligibles pour chacun des échangistes, négociées ou
consensuelles.
Le tableau ci dessous récapitule les différentes
caractéristiques et les phases d’évolution de l’ancienne
économie vers la nouvelle.
D’autres éléments peuvent distinguer la nouvelle économie
de l’ancienne, notamment le développement d’une société de
l’information et du savoir et la diffusion de l’entreprise
numérique.
A- les caractéristiques de l’économie de la connaissance
Suite à l’émergence de la nouvelle économie ou plus
exactement de l’économie fondée sur la connaissance,
l’organisation industrielle doit faire face à des changements
profonds, les firmes deviennent de plus en plus intensives en
connaissances (une main d’œuvre de plus en plus qualifiée, la
firme fait des dépenses pour former ses employés…).
194
193
3 Cette période a été marquée par une expansion de l’économie américaine et
une stabilité monétaire et Financière, certains économistes la qualifie par « new
age »
Au sein de l'économie digitale, les différences entre produit et service sont de
moins en moins évidentes, en raison de l'évolution de la notion de produit,
traditionnellement considéré comme une marchandise, devenu un service quand
son contenu est digitalisé ,in débat sur la nvl eco, lera lopez.
137
138
l’économie de l’information n’est pas le marché walrasien
mais plutôt le marché hayekien dans lequel producteurs et
consommateurs tâtonnent en interagissant les uns sur les
autres ; la « coopétition », subtil mélange et équilibre entre la
coopération et la compétition, doit sous tendre la
recomposition du tissu industriel dans le nouveau contexte ;
etc. (De Boissieu)
N. Foss (2003) remarque que la nouvelle économie a une
part importante dans la résolution de plusieurs difficultés de
l’entreprise, cela nécessite donc une profonde transformation
au niveau de la relation d’autorité, de l’organisation interne
ainsi qu’au niveau des frontières de la firme.
a- Remise en cause de la relation d’autorité :
L’ère de la nouvelle économie est caractérisée par une
main d’œuvre de plus en plus intensive en connaissance, on
voit que les biens de connaissance sont de plus en plus
contrôlés par les travailleurs « knowledge workers », ce qui
fait perdre à la relation d’autorité traditionnelle sa
signification.
Le cadre Hayekien de la connaissance est défini par deux
propositions, la première fait référence à la connaissance
dispersée ou distribuée « distributed or dispersed knowledge »
là où la connaissance est acquise de façon privée, tacite et
subjective, la deuxième proposition fait référence aux «
knowledge workers » là où les biens de connaissance sont
contrôlés par les agents de façon individuelle.
Le problème de la connaissance est qu’elle n’est jamais
établie de façon complète et agrégée et ceci du fait de la
présence d’une connaissance tacite et dispersée au sens de F.
Hayek 1986 : « le problème réside dans l’utilisation de cette
connaissance, laquelle n’est donnée à personne dans sa
totalité » .
De son coté, N. Foss (2003) se concentre sur la notion de
la connaissance dispersée au sens de Hayek, le problème
rencontré par le principal n’est pas seulement qu’il est mal ou
non informé sur la nature de la chose révélée ou de la
réalisation des efforts des agents ( hidden knowledge) , mais
que la connaissance de l’agent peut être supérieur à celle du
principal, ce dernier peut ignorer quelques actions de certains
agents qui peuvent être informés mieux que lui suite à
l’apprentissage par la pratique.
En somme les arguments apportés par l’opinion
Hayekienne où la connaissance est dispersée et l’input de
connaissance est plus important que l’input physique
présentent de réels problèmes à l’exercice d’autorité au sein
des firmes et mettent énormément de contraintes qui
influencent les mécanismes de coordination.
Ainsi on peut dire que le rôle de l’entrepreneur s’est
métamorphosé ou a évolué suite à la naissance de l’économie
de connaissance, on n’est plus en face d’un entrepreneur qui
applique une autorité absolu envers ces agents, mais en face
d’un coordinateur qui sait faire une bonne coordination et
donc un partage de connaissance au sein des membres de
l’entreprise pour une meilleure prise de décision, que ce soit à
l’intérieur qu’au delà des frontières de l’entreprise.
b- Remise en cause des frontières d’entreprises :
Certains auteurs réclament que non seulement
l’organisation interne de la firme qui a été profondément
touchée par l’avènement de la nouvelle économie mais aussi
les frontières de ces firmes ont été aussi affectées.
En effet la connaissance se base sur des réseaux Harryson
(2000), certains de ces réseaux coupent les frontières légales
de la firme, ainsi le système des réseaux est utilisable pour les
arrangements organisationnels et le transfert de connaissance à
travers la hiérarchie ( Liebeskind et al (1995) page 7) .
La connaissance se situe dans des systèmes de réseaux,
cela incite donc les firmes à couper leurs frontières dont le but
de favoriser le transfert de connaissances, c’est la notion de la
connaissance réseau que nous allons développer plus loin.
c - Remise en cause du modèle classique de l’offre et
de la demande :
Le modèle de l’offre et de la demande classique n’est plus
appliquée ou plus exactement ne convient plus au cas de la
connaissance qui est considérée comme un produit
économique Machlup (1964) page 154.
En grande partie, la production de la connaissance n’est
pas guidée par le mécanisme du marché et comme le précise
Machlup dans son ouvrage « Knowledge and Knowledge
production », la majorité de la connaissance produite n’est pas
achetée par le consommateur mais elle lui est offerte « free of
charge ».
Hayek (1986) page 118 dans son article « the use of
knowledge in society » remet aussi en question la solution
apportée par le calcul économique « la raison en est que les
données à partir desquelles se fonde le calcul économique ne
sont pas et ne peuvent pas être, lorsqu’elles concernent la
société toute entière, « donnée par individu » ».
En plus la connaissance de notre environnement n’est
jamais établie de façon complète et agrégée et ceci du fait de la
présence d’une connaissance tacite et dispersée.
Le problème selon Hayek réside donc dans l’utilisation de
cette connaissance, laquelle n’est donnée à personne dans sa
totalité.
« Knowledge in the mind is in the memory of an individual
person, in the memories of small groups of persons, or in the
memories of many members of society” Machlup (1964)
2- Une coordination s’impose !
Le problème n’est donc en rien résolu par l’affirmation
selon laquelle tous les faits, s’ils étaient connus par un seul
esprit, détermineraient la solution, nous devons montrer en
revanche comment cette solution procède des interactions
entre des agents dont chacun possède seulement une
connaissance partielle , Hayek (1986)
Coase (1937) « la firme est un co-ordinateur, le marché est
un co-ordinateur aussi, ce qui veut dire qu’on peut définir la
firme comme une institution spécialisée dans la coordination ».
La structure de l’économie est en fait basée sur le concept
de la volatilité « it is supposed that the economic envirement is
continuously disturbed by shoks of both a persistent and
transitory nature » (Casson 1997) page 77 ; le but de la
coordination étant donc de mieux gérer ces chocs
d’informations et de connaissances ce qui se reflète sur la
qualité de la décision prise par l’entreprise.
« the firm (...) is essencially a structure designed to
harmonize the decision making efforts of a group of poeple
who are focused on a single issue or a set of relatef issues”
Casson (1997)page 79.
il rajoute “a firm may be defined as a specialized decision
making unit, whose function is to improve coordination by
structuring information flow and which is normally endowed
138
139
with legal privileges, including indefinite life” ibid page 80.
La vision de l’auteur en terme de l’organisation est «
interactionniste » c'est-à-dire un lieu où la coopération interindividuelle tient une place essentielle dans la création, la mise
en cohérence et la diffusion de savoirs nouveaux . ainsi, audelà du lien souvent négligé dans la littérature entre
l’apprentissage
individuelle
et
l’apprentissage
organisationnelle, la coopération cognitive vise à favoriser la
création de nouvelles connaissances individuelles par un
ensemble d’interactions entre individus.
La coopération joue ainsi un double rôle dans le
développement de la connaissance :
- un rôle de déclencheur des apprentissages et des
processus de création de connaissance notamment par un
partage des éléments constituant les capacités cognitives des
différents intervenants ;
- et un rôle d’implémentation des acquis nouveaux et de
diffusion à l’ensemble des centres de décision ou de
l’organisation.
The generation and exploitation of knowledge is now the
predominant factor in the creation of wealth. For countries in
the vanguard of the world economy, the balance between
knowledge and resources has shifted so far towards the
former that knowledge has become perhaps the most
important factor determining the standard of living – more
than land, than tools, than labour. Today’s most
technologically
advanced
economies
are
truly
knowledgebased.”(World Development Report 1999, World
Bank)
a- le rôle joué par l’apprentissage :
Polanyi (1958) nous a initié à la conception de la
connaissance tacite en affirmant : « nous savons toujours plus
que nous pouvons dire » , une part de la connaissance échappe
à la description et à l’exploitation .
L’échange et l’apprentissage des connaissances tacites
supposent la mobilité et la démonstration volontaire des
personnes qui les détiennent .
Selon Machlup la production des connaissances à partir
des recherches et du système éducatif est reliée aux flux des
connaissances du capital humain accumulé dans le passé ; un
autre instant important est celui de la croissance de la
connaissance dans le cerveau humain suivant le processus de
maturation, ce dernier est acquis lorsque la personne atteint la
meilleure compréhension du matériel appris auparavant, on
développe de nouvelles idées par des flashs ou des signaux ou
par la chance de découvrir.
Mises (1949) page 39 note que « les relations logiques
fondamentales sont la condition première et indispensable de
la perception, de l’aperception de l’expérience (ainsi) que de
la mémoire ».
L’apprentissage repose sur la manipulation des
représentations présentes dans la mémoire déclarative lors des
activités cognitives de l’individu.
Loasby page 362 affirme que c’est un processus qui tend
vers l’infini, donc il n’y a pas de convergence vers une réalité
objective, il précise qu’il n’existe pas de limite ni un équilibre
que puisse atteindre la croissance des connaissances des
individus.
Les membres de l’organisation ont des représentations
différentes de l’environnement et développent ainsi leur propre
processus d’apprentissage, cette multiplicité requiert un
mécanisme de mise en cohérence qui peut être considéré
comme une base de connaissance commune. Si cette dernière
est assurée par une décentralisation des processus
d’apprentissages, leurs résultats doivent être centralisés afin de
préserver la cohérence de l’ensemble.
Cependant, des événements concernant la technologie ont
fondamentalement transformé le degré auquel la connaissance
est intégrée dans l'activité économique, d’après Paul Romer ,
la création de nouvelles informations n’est plus considérée
comme facteur exogène ; ( dans le domaine de la comptabilité
et de la croissance économique, la connaissance et la
technologie cessent d’être exogènes pour devenir endogène.
Ce qui distingue la théorie de la croissance de Solow (1957) à
celle de Samuelson (1938), mais ces facteurs représentent le
résultat d’une combinaison productive qui dépend du
comportement des agents économiques.
Dans notre société moderne les TIC jouent un rôle
catalyseur et contribuent à améliorer les communications et les
relations entre les institutions « entreprises », les
consommateurs et le commerce à bas coût, elle présente de
nouvelles opportunités qui se situe dans un contexte
indissociable : la société de l’information, l’économie du
savoir et la management des connaissances.
L'importance des connaissances a prévalu à tous les âges
du développement du capitalisme. Cependant, à l'ère
contemporaine, la nouvelle économie pense triompher grâce à
la prééminence des TI (technologies de l'information), laquelle
tient à la fois de la publicité, de la magie, des médias, des
discours dominants, voire de la pure fascination. Parce qu'on
parle tous de communication, on entrerait dans une phase postcapitaliste (même cette expression est tombée en désuétude; on
préfère économie du savoir ou économie du don). La mystique
du scientifique des années 50 et 60 avait créé une élite de la
communication scientifique, qui préside à la naissance des
sciences de l'information (ceci est l'objet d'une autre histoire, à
venir). Dès cette époque, le «scientist» américain jouit de la
même considération que le capitaine d'industrie du XIXième
siècle.(Blouin)
En effet, l’apport des connaissances et de la technologie à
la croissance économique n’est cependant pas nouveau, savoir
et technologies ont toujours été des ‘enzymes 'de l’économie.
Les deux deniers siècles ont été marqués par une
succession de progrès technologiques : Au XVIII° siècle, les
découvertes scientifiques ont permis la mise au point des
machines qui allaient révolutionner les transports. Plus tard au
XIX° siècle, les capacités de production, puis de distribution
de l’électricité allaient engendrer de profonds bouleversements
qui représentent les premières formes de mécanisation du geste
et du savoir-faire. Plus récemment encore, au XX° siècle, les
découvertes qui ont permis la mise au point du moteur à
essence ont provoqué une véritable révolution industrielle
(Chattab.N. 2003).
On constate ainsi une réelle continuité dans le
b- L’apport des TIC dans la nouvelle économie :
Avec la transition vers la “société de l’information”,
l’information devient l’un des aspects les plus importants de
notre existence, elle a commencé à changer la source même de
la richesse.
“In an agricultural economy, land is the key resource. In
an industrial economy, it is physical assets such as steel,
factories, and railroads that are the dominant factors of
production. In the current era, the key resources have become
information and knowledge.
L’évolution des sociétés et de leurs sources de richesse
139
140
développement des connaissances scientifiques, tant dans
l'économie industrielle lourde que dans l'économie moderne
axée sur le consommateur. Seuls les contextes et les milieux
changent, et permettent à ces savoirs de se déployer avec plus
ou moins d'aisance. Or, la nouvelle économie représente
l'expression d'un contexte nouveau, débarrassé de tous les
obstacles traditionnels empêchant, entre autres, l'immédiateté
des communications et la spéculation libre de toute limitation.
Le contexte a changé, mais le but et les objectifs de l'économie
ne l'ont pas nécessairement fait.(Blouin, p9).
II- la contribution de la nouvelle économie à la
croissance !
A- L’extension de l’économie de marché :
L’apparition d’une nouvelle génération du savoir qui est le
savoir réseau, l’accès à l’information et l’investissement dans
les TIC implique une diffusion du savoir qui permet un
développement du marché de la connaissance, y compris
l’investissement dans le capital humain, ici le rôle du facteur
humain paraît très important. Grâce à l’innovation massive
dans le domaine technologique, le marché traditionnel s’est
transformé en digital et le commerce est devenu électronique
via Internet. A travers ce marché, les biens (les marchandises)
sont devenus des informations195, ils seront diffusés en
réseaux, la contrainte du temps et les coûts de transactions
vont diminuer, le consommateur est devenu de plus en plus
informé sur le processus du marché, son comportement dans
un monde digital est devenu plus efficace que celui du marché
traditionnel. Les conséquences des nouvelles technologies
apparaissent importantes : création de nouveaux services, mise
en place de nouveaux modes de distribution des biens et
d’échange d’informations, d’ou l’émergence de nouveaux
produits, agents et processus.
La naissance de l’entreprise numérique
Pour être compétitive, innovante et solide, les entreprises
ont besoin d’accéder facilement à l’information sur le
processus du marché, elles doivent intégrer et exploiter des
nouvelles sources de communications en vue d’échanger des
informations avec d’autres institutions du monde entier.
La dérégulation de la nouvelle économie et l’essor de
l’Internet ont brouillés les frontières des organisations des
firmes par la multiplicité des contacts interpersonnelles qu’elle
engendre. D’où l’apparition de L’entreprise réseau qui peut
s’analyser comme étant une forme organisationnelle répondant
à l’impératif de la division cognitive du travail, dans laquelle
la coordination « relationnelle » devient primordiale.
L’entreprise réseau est donc formée d’« individus clés »
dont les interactions permettent de partager des connaissances
et en produire d’autres. Ainsi on peut dire que la coopération
passe par plusieurs étapes :
La première, concerne le partage et le transfert de
connaissance entre les différents membres de l’organisation ;
Ensuite, on a l’étape de la construction d’une base de
connaissance collective par la réunion des apports de chacun ;
Après, ces « individus clefs » développent et interprètent cette
base de connaissance commune.
En définitive, on aboutit à une base de connaissance
modifiée qui peut être jugée comme supérieure à la somme des
connaissances individuelles initiales.
la nature de la nouvelle firme
On peut dire que la « nature de la firme » a été changé,
195
Au sein de l’économie digitale, les différences entre produits et services sont
de moins en moins évidentes en
raison de l’évolution de la notion de produits traditionnellement considérés
comme marchandises, devenus,comme service quand son contenu est digitalisé.
l’entreprise est devenue numérique (ou digitale) elle est
constituée de réseaux, les coûts du transport des services
immatériels sont devenus presque nul, les frais généraux sont
ainsi réduits à l’extrême :moins de surfaces de bureaux, moins
de stocks et moins de déplacement à prendre en charge. C’est
cette non matérialité qui lui confère sa forte réactivité et sa
souplesse (Caccomo 2005).
‘The use of ICT also brings changes to the business
environment, where transaction costs decrease, production
factors become less expensive, lesser quantities of stocks are
needed, and time to market is reduced, etc. A firm's size ceases
to be such a determining factor as it has so far been in the
conventional market. This probably does not mean that firms
with a sizeable share in the physical market, gained through
economies of scale, do not also enjoy some comparative
advantage in the electronic marketplace.’( F.L. Lopez et al,
2000)
La nouvelle entreprise devient une source principale de
gestion du savoir et de la connaissance, elle cherche a diffuser
ses informations dans le monde entier, pas de contraintes ni de
barrières géographiques, le monde est devenu « petit » !, grâce
au système de connexion permanent, l’accès à l’information
est régulier , le contact avec le client est à tout moment , pas
d’horaire d’ouverture ni de fermeture d’agence.
In the neteconomy, geographical barriers disappear and
there is access to the market 24 hours a day, thus removing any
difficulties that could arise from the existence of different time
zones in the various areas of the world. ( F.L. Lopez et al,
2000)
B – la stratégie de l’entreprise innovante :
Pour survivre, l’entreprise doit donc changer d’orientation
stratégique et passer d’une logique initiale –ou le rôle était
clairement défini- à une logique de profitabilité, de
l’innovation afin de trouver de nouvelles sources de valeur
ajoutée.
cette nouvelle structure exige la présence d’un agent qui
établit la coordination entre les différentes bases de
connaissances communes, cette personne trouve sa logique au
niveau mondial, dans la confrontation de stratégies d’acteurs
issus de systèmes sociétaux différents.
A cet égard, l’articulation entre les différentes bases de
connaissances de l’économie industrielle et de l’économie
internationale nécessite un changement (une innovation) afin
de rester compétitive au plan international.
Cette personne ne serait il pas l’entrepreneur
Schumpétérien ?
L’entrepreneur innovateur Schumpétérien n’est il pas la
cause ou le déclencheur de la révolution de l’économie de
connaissance ?
L’entrepreneur innovateur :
L’activité entrepreneuriale se présente au cœur du
processus du marché qu’elle est censée guidée, motivée par
l’attrait du gain économique, le rôle de l’entrepreneur ainsi ne
concerne plus uniquement la coordinations des activités
économiques assurée par le marché.
Les modèles post-keynésiens, les modèles néo-classiques
n’ont pas ignoré l’existence du progrès technologique mais ils
ne l’incorporent pas à leur raisonnement, Schumpeter voit au
contraire dans le phénomène de l’innovation l’élément
essentiel de la dynamique économique.
Dans sa « théorie de l’évolution » 1912 Schumpeter
explique qu’il y a évolution quand l’économie est tirée de sa
routine par une réorganisation des moyens de production
existants, cette réorganisation améliore leur efficacité, il
l’appelle innovation, « nous définirons simplement
140
141
l’innovation comme la mise en place de nouvelles fonctions de
production » Schumpeter 1939.
Dans l’équilibre général Walrasien le profit est nul, les
recettes liées à une activité permettent juste de rémunérer les
facteurs de production (résultat néoclassique en CPP). C’est
l’innovation qui permet de dégager un profit positif, c’est le
profit de l’innovation temporairement supérieur au profit
habituel dans la branche considérée en raison de l’avantage
concurrentiel apporté par l’innovation. Ainsi l’entrepreneur
innovateur est un « perturbateur d’équilibre » .
L’équilibre du marché au sens de Schumpeter est perturbé
périodiquement par l’activité entrepreneuriale, cette dernière
enseigne et entretient un processus de « destruction créatrice »,
de renouvellement de structures capitalistiques « en détruisant
continuellement ses éléments vieillis et en créant
continuellement des éléments neufs » Schumpeter 1951 page
164 ;
Il s’avère intéressant de signaler que les chocs qui
perturbent l’équilibre économique au sens de Schumpeter (les
chocs d’innovations) sont de nature endogène. En fait,
l’entrepreneur Schumpetérien est représenté comme un agent
générateur de déséquilibre, en effet, l’introduction
d’innovation par les entrepreneurs Schumpetériens perturbe
l’état ex-ante de la coordination du système économique. Chez
Schumpeter, puisque l’activité entrepreneuriale ( innovation)
s’exerce à l’équilibre en perturbant ce dernier, cela signifie que
l’entrepreneur pourrait créer des connaissances nouvelles sans
l’acquisition d’informations nouvelles (Machlup 1983)
provenant des déséquilibres des marchés. L’activité
entrepreneuriale est donc à l’origine du changement.
L’activité entrepreneuriale au sens de Schumpeter :
L’entrepreneur a la qualité d’un innovateur
L’entrepreneur prend le rôle du monopole
L’apparition des imitateurs
Pour garder sa place de leader : « destructionCréatrice » la
naissance d’une innovation
Le cycle de l’entrepreneur Schumpétérie
La renaissance de l’approche Schumpétérienne avec
l’émergence de la nouvelle économie
Le facteur temporel joue un rôle primordial dans le
développement économique de la société d’information.
On sait que le modèle Schumpétérien tire sa force du
processus d’innovation, là l’entrepreneur réalise son sur-profit
et se distingue des autres (les imitateurs).
En fait , l’innovateur a toujours une longueur d’avance par
rapport aux autres du fait du caractère tacite des
connaissances, en effet, les imitateurs ne peuvent pas toujours
avoir la totalité des connaissances dont disposent les
innovateurs, ni leur savoir faire du fait du rôle joué par
l’apprentissage par la pratique. Ainsi l’innovateur doit profiter
de cette situation et anticiper le temps que les imitateurs
doivent prendre pour pouvoir acquérir la connaissance
nécessaire et améliorer son innovation ou en apporter une
nouvelle, afin qu’il reste toujours le leader et ainsi garder ses
parts de marché.
Les NTIC permettent de faciliter la tâche de l’entrepreneur
innovateur, d’où il peut toujours surveiller son environnement
ainsi que les imitateurs sur les marchés à moindre coût.
En définitive, on arrive à la conclusion suivante : les
NTIC représentent un facteur primordiale pour le
développement de la firme et donc de la société d’information.
C - Contribution des TIC à la croissance de l’économie
et de la performance des firmes :
Durant la décennie écoulée et avec le développement des
théories dites de la croissance endogène ( Romer), l’analyse
économique a mis en évidence le rôle fondamental de
l’accumulation des connaissances dans le développement du
progrès technique et de l’innovation, catalyseur de la
croissance..
De nos jours, la connaissance joue un rôle crucial au sein
de l’entreprise, elle permet d’assurer des gains de productivités
et de garantir sa place dans le marché au sein d’un
environnement incertain, envahit par des concurrences
intenses entre les différents secteurs de l’économie et à
l’échelle internationale. Avec l’adoption des Technologies
modernes High-tec , les entreprises peuvent aussi garantir une
croissance économique durable, et une allocation efficace de
ces ressources .
De son coté, Arrow note que la croissance est la
croissance des connaissances ( et donc de la société de
connaissance) « …ainsi on peut admettre aisément, que la
production des connaissances nouvelles alimente la
progression du stock de capital de connaissances, qui à son
tour, joue comme déterminant du progrès technique et donc la
croissance de la productivité (ce qui est la définition même de
la croissance)…Les relations entre croissance des
connaissances et croissance économique sont compliqués
(Metcalfe 2002) notamment par ce que la croissance
économique rétroagit sur le volume et le contenu des
connaissances »Chriastian Lebas196
La diffusion et la généralisation des NTIC au cours des
dernières années ont mis à l’ordre du jour la question de la
mesure de l’impact des innovations sur la croissance ; c’est
pour cette raison qu’on va consacrer cette partie de notre étude
à répondre à la question suivante :
Quel est l’impact des Tic sur les performances et la
croissance économique en générale et des
firmes en particulier ?
La fin du paradoxe de la productivité :
L’émergence et la diffusion des TIC a un impact positive
sur les gains de productivité ; pendant longtemps, toutefois,
ces gains de productivités ne sont pas apparus très clairement
dans les études, du moins celles de nature macroéconomique :
c’est ce qu’on a appelé le paradoxe de Solow ou le paradoxe
de productivité, ils n’ont été de fait nettement mis en évidence
qu’avec l’accélération de la croissance et de la productivité.
Depuis l’émergence de la nouvelle économie aux EtatsUnis en 1990, de nombreuses analyses ont été faites sur la base
des données de comptabilité nationale et ont pour conclusion :
que les TIC ont des effets positives et significatives sur la
croissance et la productivité du travail, en effet, la forte chute
des prix des TIC a encouragé l’investissement dans celles-ci «
Les résultat d’une telle analyse comptable pour la France
montrent que la contribution de la diffusion des TI à la
croissance de la productivité du travail aurait augmenté en
France durant les années 1990. Elle serait d’environ 0,2% par
an sur la période 1980 – 1995 et d’environ 0,4% par an sur la
période 1995 – 2002 »
Bien que la contribution des TIC à la croissance en France
soit importante, elle demeure deux à trois fois inférieure à celle
évaluée pour l’économie américaine.
La diffusion des TIC a des incidences au-delà de
l’entreprise, car elle aide à mettre en place des réseaux de TIC,
L’utilisation accrue des TIC peut également se traduire par une
large portée et davantage d’efficience dans la création de
savoir , d’où des gains de productivité Bartelsman et
Hinloopen 2002.
196
Economies et Sociétés, Série « Dynamique technologique et organisation »W,
n°8, 12/2004, p.2055-2072, « la croissance des économies fondées sur les
connaissances :Information, codification, Spécialisation.
141
142
•
R&D et productivité :
Dans les modèles de croissance endogène de type «
Schumpeter », les auteurs partent de l’idée qu’une grande
partie des innovations représente le résultat des efforts de
R&D des firmes qui cherchent à optimiser leur profit . « Au
total si prises individuellement les études sont parfois non
concluantes, souvent imprécises et assez fragile, prises dans
leur ensemble elles confirment que les investissement en
R&D ont une productivité et une rentabilité privées pour les
entreprises au moins égale, si non supérieures à celles des
autres formes
d’investissements » 197
« Un examen attentif des évolutions récentes des
contributions respectives de la R&D et des TIC à la croissance
montre donc que la situation est différente dans les deux pays,
et sans doute plus inquiétante en matière de R&D que pour les
TIC, mais ce retard ne parait pas s’accroître. En revanche,
depuis plusieurs années, la France a nettement ralenti ses
efforts de R&D et a pris un retard sensible sur les Etats-Unis
qui, eux, ont accru leurs efforts . la contribution à la R&D à la
croissance serait ainsi de l’ordre de 50% plus faible en France
qu’aux Etats-Unis dans les années récentes, alors qu’elle était
sensiblement égale au début des années 90 ». ibid.
La croissance due à la contribution du capital
technologie de l’information :
« C’est l’accumulation d’une ressource particulière qui est
le moteur principal de la croissance. Il y a bien une analogie
avec le modèle de Solow 1956, en ce qui est une accumulation
d’un facteur particulier qui contribue à la croissance de la
productivité (le capital par tête dans le modèle de Solow) »
Christian Le Bas Page 2061.
Les TIC peuvent ainsi représenter le troisième facteur qui
contribue tout comme le capital et le travail à la production..
Jorgenson 2001- 2003, montre que les améliorations
techniques permanentes dans les industries produisant les
biens d’équipement de type NTIC (et notamment les
microprocesseurs) ont accru la productivité et entraîné le
déclin des prix des matériels »
Les NTIC ne donnent que des potentiels de croissance de
la productivité Boyer (2002).
CASSON M.; (1997), “The nature of the firm”, Information and Organization, “A
New Perspective on the Theory of the firm”, CLARENDON PRESS - OXFORD.
CASTELLS Manuel (2000), The Information Age : Economy, Society, and
Culture, Blackwell, Oxford, revised edition.
CETTE Gilbert, KOCOGLU Yusuf et MAIRESSE Jacques, « les mécanismes de
la croissance : Productivité et croissance », croissance et innovations, Cahiers
Français, N° 323, Novembre - Décembre 2004.
CHETTAB Nadia, « Economie, TIC et bonne gouvernance en Algérie », in
monde en développement, 2001
COLECCHIA Alessandra and Schreyer Paul “ICT investment and economic
growth in the 1990s: is the united states a unique case? A comparative study of
nine OECD countries” STI WORKING PAPERS 2001/7
Foss N.J. ; « “Austrian “ determinants of economic organization in the knowledge
economy » , dans, Market information and communication , Austrian Perspective
on the internet economy , Jack Birner & Pierre Garrouste, 2003.
HAYEK F. A. ; « L’utilisation de l’information dans la société », Revue française
d’économie, Volume 1, N° 2, Automne 1986.
LE BAS Christian, « les logiques de l’innovation : l’innovation dans la théorie
économique », croissance et innovations, Cahiers Français, N° 323, Novembre –
Décembre 2004.
LE BAS Christian, « la croissance des économies fondées sur les connaissances :
informations, codification, Spécialisation », Economies et Sociétés, Série «
Dynamique technologique et organisation ».W, n° 8, 12/2004, pp. 2055 – 2072.
LOPEZ Lera Fernando &Nuria Herández Nanclares, “the so called new economy
and the
ICT: Concep and Measurement »
LOPEZ Lera Fernando, Margarita Billón Nuria Hernández Nanclares 2001 « Le
débat sur la "Nouvelle Économie" : une approche pour une analyse » Université
Autonome de Madrid, Département de la Structure Économique et du
Développement Économique.
MACHLUP F., “Knowledge, it’s creation, distribution and economic
significance”, vol 1,Knowledge and knowledge production Princinton U. Press
1980.
OCDE 2003, Technologies de l’information et des communications, les TIC et la
croissance économique, PANORAMA DES INDUSTRIES, DES ENTREPRISES
ET DES PAYS DE L’OCDE.
QHUAN Danny, Digital goods and the new economy LSE Economics
Department December 2002
TETSUA Inue impact of information technology and implication for monetary
policy,Monetary and economic studies, december 1998
Conclusion :
«Les nouvelles connaissances technologiques et
industrielles, en émergence, donnent naissance à de nouvelles
activités, de nouvelles firmes spécialisées dans de nouveaux
segments, de nouveaux métiers, et donc de nouveaux
apprentissages. Il en résulte, que les économies d’échelle et
d’apprentissage qui émerge, sous différentes formes, de la
création de firmes et d’activités nouvelles favorisent la
croissance. Dans une telle approche, la croissance économique
est non seulement intimement liée au changement structurel,
mais aussi, dans une certaine mesure, à la vision
Schumpétérienne de la destruction créatrice, « cette
problématique met l’accent sur la division et la spécialisation,
en terme d’activités et de connaissances, comme moteurs de la
croissance »
Références Bibliographiques :
ARROUS Jean, croissance et fluctuations économiques : Macroéconomie de
longue Période Dalloz, Paris 1991.
BOYER Robert « la nouvelle économie » Au futur antérieur : Histoire, Théories,
Géographie, 2001-N13
197
LES MECANISMES DE LA CROISSANCE : PRODUCTIVITE ET
CROISSANCE, Gilbert Cette, Banque de France Et
Université de la Méditerranée (CEDERS) ; Yusuf Kocoglu, Université de la
Méditerranée (CEDERS) ; Et Javques Mairesse,
INSEE-CREST et EHESS, « croissance et innovation »
142
143
TIC et organisation
Entre contrôle de gestion et contrôle d'identité
Thomas HELLER
GREC/O / Université Bordeaux 3
[email protected]
La réflexion sur les TIC dans les termes d'un dispositif se
contente de mettre en évidence leur lien avec les paradigmes
dégagés par Foucault (société disciplinaire) ou Deleuze
(société de contrôle). Ces références - imposantes - empêchent
de penser la spécificité des dispositifs propres à notre temps.
C'est le point de vue défendu par Sophie Pène, notamment
dans un article paru dans la revue Etudes de communication en
2005. L'auteure y développe l'idée d'une société de
disponibilité, repérable notamment à travers l'usage des TIC
dans le cadre du travail collaboratif. La proposition ne manque
pas de pertinence ; est-ce à dire pour autant que la réflexion
sur les TIC menée à l'aune de la logique de contrôle serait
caduque ? Certes, l'auteure ne va pas jusque là ; mais la
proposition de départ appelle une réaction. Dans cette
communication, on insiste sur la pertinence et l'intérêt
heuristique et politique qu'il y a à penser encore les TIC en
organisation dans les termes du contrôle tel que Deleuze ou
Foucault l'ont abordé. Cette attention sur les TIC tient
uniquement au thème de ces journées ; il est bien entendu que
les dispositifs constitutifs des sociétés de contrôle ne se
réduisent pas à un usage - si extensif soit-il - de ces
technologies, et ne se réduisent pas à l'organisation. On entend
143
144
par TIC les technologies qui ressortissent du stockage, du
traitement et de l'échange ou de la transmission de
d'informations, soit d'une part l'ordinateur connecté ou non à
un réseau, à un serveur, ainsi que les logiciels et autres
systèmes experts, qui le rendent opérationnel ou précisent son
domaine et ses capacités d'actions, d'autre part le mobile ou le
téléphone, et enfin les systèmes de captation et
d'enregistrement du réel dans leurs dimensions sonore et
visuelle (soit les systèmes de vidéosurveillance pour être plus
concret). Le terme d'organisation est ici un terme générique
qui désigne les entités productives et/ou administratives,
dotées d'une structure de fonctionnement et d'une autorité.
Le rapport des TIC au contrôle est envisagé selon trois
axes : celui de la surveillance des salariés et de l'activité de
travail, celui de l'adaptation à l'usage des TIC et de ses
implications, et celui de l'évaluation modulaire des personnes ;
ce dernier axe sous-tend l'existence d'un lien inextricable entre
société de contrôle - dans sa spécificité modulatoire - et,
disons, pour aller vite, culture du narcissisme.
1) TIC et prolongement disciplinaire
Nous ne reviendrons pas ici sur les caractéristiques des
sociétés disciplinaires telles que Foucault les a décrites dans
Surveiller & punir ; on se souviendra seulement que
l'enfermement est ce qui les caractérise, conjugué à une
technologie de pouvoir qui atteint son plus haut degré de
perfection avec les propositions architecturales de Jeremy
Bentham. Le panoptique est la figure emblématique de la
société de discipline, dont l'efficacité repose sur un dispositif
spatial de mise en visibilité qui incite celui sur lequel porte
potentiellement le regard à adopter de lui-même le
comportement souhaité par le pouvoir. La force de ce système,
qui fait son intérêt du point de vue d'une économie du pouvoir,
est justement qu'il n'est pas nécessaire de placer en
permanence un surveillant ; le simple fait de se savoir surveillé
est censé avoir un effet de contrôle.
C'est une particularité des TIC de contribuer à renouveler
cette logique disciplinaire, et que certains médias d'ailleurs
évoquent régulièrement. En premier lieu, c'est le
développement de la vidéosurveillance dans les entreprises qui
est mentionné pour un usage dont la description ne manque
pas de suggérer ou encore de rappeler explicitement le 1984 de
Orwell. Ainsi, pour l'anecdote, la société Lidl, d'après le
Canard enchaîné du 8 février dernier a-t-elle installé dans
“son entrepôt de Nantes 65 caméras pour surveiller 60
salariés…”. C'est d'ailleurs cette entreprise que l'association
des “big brother award” a couronnée cette année, parmi les
autres nominés retenus pour des installations d'ailleurs tout à
fait légales de système de “flicage” technologique durant
l'année écoulée.
Mais c'est là une forme de surveillance relativement
frustre, si on la compare aux systèmes utilisés dans certaines
entreprises de service, au premier rang desquels on trouve les
centres d'appels téléphonique. Objet de nombreux articles
dans la presse (écrite et audiovisuelle) et objet d'études en SHS
(par exemple, le travail de Laétitia Schweitzer), ce secteur est
devenu emblématique d'un neo-taylorisme, à l'encontre de
toutes les pratiques et discours autour de la sollicitation de la
subjectivité des salariés et de leur autonomie. La nouveauté de
ce neo-taylorisme tient autant au lieu sur lequel porte la
rationalité du travail (la relation, le langage) qu'au rôle des TIC
dans son application (en termes de procédures ou en termes de
surveillance). Pour s'en tenir au registre de la surveillance, le
poste de travail de chaque téléopérateur se trouve relié à un
poste central, qui permet à un superviseur d'écouter les
conversation téléphonique des opérateurs et d'avoir accès à
toute une série de données chiffrées concernant l'activité de
chacun : durée des appels, durée entre chaque appel, temps
passé depuis la première connexion, nombre d'appels, nombre
d'accords, de refus.
Un autre domaine, qui a fait couler beaucoup d'encre sur
les frontières entre vie privée et vie publique est le contrôle
des connexions internet ou encore des échanges via le mail.
Mais la mise en lisibilité des salariés via les TIC dépasse la
simple logique disciplinaire, et l'usage d'un outil au service
d'un rappel à l'ordre. Que ce soit dans le cadre du travail, ou en
dehors de celui-ci, un vaste texte, en effet, s'écrit virtuellement
sur la toile, où les échanges professionnels côtoient les pages
personnelles ou les blogs, les chat ou les forums. Tous ces
échanges sont ici autant de traces susceptibles d'être
consultées. Dans le supplément emploi du 20 février dernier,
le journal Libération rend compte de pratiques courantes,
surtout aux Etats-Unis, d'enquêtes sur le web portant sur des
candidats à l'embauche ; dans le même dossier, le journal cite
l'exemple d'une femme dont le blog a été un obstacle à son
recrutement, mais qui a décroché un travail grâce notammant à
l'intérêt qu'il a suscité chez un autre employeur. Et le directeur
d'un cabinet de recrutement conseille aux futurs salariés de
faire un “audit” complet de soi sur le net avant de postuler à un
emploi. Et une fois que le salarié est intégré dans une
entreprise, “le système d'information «ressource humaine»,
écrit Sophie Pène maille ses évolutions, évalue sa trajectoire
et mesure son potentiel : le «cycle de vie» informatique du
salarié désigne son existence, archivée et attestée par les
multiples fichiers le décrivant diachroniquement, actif dans
différents processus et réseaux (notation, congé, réalisation,
participations, mission, voyages, horaires, salaire,
formation)”198. Aujourd'hui, c'est dans la mémoire des
ordinateurs que le salarié est - virtuellement - enfermé, sous
forme d'indices susceptibles d'intervenir dans la définition
d'une trajectoire.
2) TIC, adaptation, normalisation
Le rapport des TIC au contrôle ne se limite cependant pas
à une fonction de surveillance ou un support d'enquête ;
nombreux sont les travaux qui rendent compte du rôle de plus
en plus important des TIC dans l'organisation ou la réalisation
du travail via des logiciels de gestion : CRM (gestion de la
relation client), SRM (gestion de la relation fournisseur), SCM
(gestion de la chaîne logistique, ou encore ERP (progiciel de
gestion intégré), viseraient une plus grande efficacité
organisationnelle, via le traitement et la fluidité du flux
informationnel, au service d'une production en juste à temps ;
la contrepartie est une rigidification de l'organisation du
travail, une intensification de celui-ci qui se traduit par un
contrôle plus important du fait notamment de la fragilité des
systèmes informationels (Vendramin 2002).
En outre, les contraintes opératoires de l'usage des TIC,
conjugués aux conditions managériales de leur utilisation,
constituent tout autant un domaine d'investigation de la qualité
du travail du salarié et une injonction pour celui-ci à s'adapter
à la logique du programme, et au mode de représentation du
travail qui lui est rattaché. En cela, les TIC participent aussi à
une dépolitisation de l'exercice du pouvoir, puisqu'il n'est plus
question que d'obéir à des données statistiques considérées
comme neutre, objectives (Schweitzer, 2003). Aussi ne
s'étonnera-t-on pas que les TIC, et en particulier les logiciels
de gestion, puissent aussi être envisagés comme des
instruments au service d'un renouvellement des dispositifs
disciplinaires, qui portent sur l'activité cognitive des salariés
(Bouillon, 2005).
Avec les TIC également, de nouvelles formes de
collaboration et de travail à distance sont devenues possibles,
198
S. Pène, Société de disponibilité, la vie quotidienne des communautés
artificielles, œuvre nouvelle en vue de l'habilitation à diriger des recherches,
Université de Paris 5, 2005, p. 39.
144
145
affaiblissant notamment cette composante constitutive de la
société disciplinaire qu'est l'enfermement. Cette forme de
libération n'est certainement pas déterminée par la seule
capacité technique ; elle se soutient également d'une forme de
management qui porte sur les objectifs et un contrôle qui porte
sur les résultats.
Une conséquence du télétravail dans ce contexte est une
décentralisation de la gestion du temps de travail sur le salarié
lui-même, qui se traduit par une exigence de disponibilité plus
grande, ou qui pousse à être davantage disponible, et ce
d'autant plus que la miniaturisation des TIC permet un usage
en toutes circonstance (voir à ce propos les articles du journal
Libération du 5 décembre 05 sur les usages du Blackberry).
Quoi qu'il en soit, il s'agit d'une source nouvelle
d'enfermement, au risque notamment de la dissolution des
frontières entre vie professionnelle et vie privée, risque qui a
d'ailleurs déjà conduit certains spécialistes du droit à réfléchir
sur “un droit à la déconnexion” (J-E Ray, 2001, cité par Rey et
Sitnikoff, 2004 ).
Dans le cas du travail collaboratif par le biais du net, cette
disponibilité est à la mesure des capacités de la machine : une
question appelle une réponse, immédiatement. Un tel
empressement ou une telle exigence tacite est sans doute à
entendre comme une convention sociale visant à pallier le
manque qui découle de l'absence, et à créer et maintenir
l'illusion d'un “être ensemble” en réduisant au maximum les
silences. C'est le temps qui fait groupe.
Mais aussi, cette exigence d'être disponible doit être
rapportée nous semble-t-il à la particularité du projet en tant
qu'instance structurante d'inclusion ou d'exclusion : en être ou
pas. L'appartenance au groupe est directement liée à
l'implication dans un projet et donc à la capacité d'entrer en
connexion avec les autres. Certes, dans le cadre d'une
organisation, le projet n'est pas une condition univoque de
l'appartenance, constitutive de l'identité sociale et
professionnelle, mais il y contribue néanmoins, ne serait-ce
que parce que le projet définit une place de l'individu dans
l'organisation ; dans d'autres contextes, l'existence social de
l'individu peut être tributaire de son implication dans un réseau
porté par un projet. Par exemple, dans un article récent
R.Panico et F. Poulle (2005) s'inquiètent des implications
politiques d'une citoyenneté par projet qui de fait redéfinit les
rapports inclusion/exclusion dans la communauté locale. Avec
le projet, l'appartenance comme donné, qui confère un statut et
une identité, vole plus ou moins en éclat. Dans ces conditions
il est pertinent de parler de société de disponibilité, avec ses
exigences qui s'étendent à la maîtrise des outils techniques, et
supposent un travail de rationalisation (ou de gestion) de son
activité cognitive pour y répondre, et répondre aux objectifs
assignés. Mais dans le contexte de l'organisation, structure
d'autorité, la disponibilité ne relève pas seulement de
conventions sociales ou d'une confirmation identitaire ;
l'existence d'objectifs, de délais, la désignation d'un chef de
projet sont autant de déterminants d'une injonction à la
disponibilité (qui s'épuise dans la mobilisation pour le projet
ou plutôt dont les limites sont toujours repoussées) qui la
replace dans le registre du contrôle : rôle du chef de projet,
regard des uns sur les autres, existence de traces consultables,
etc.
Mais ce qui caractérise aussi le télétravail et l'usage des
TIC dans une collaboration à distance, c'est l'éclatement des
frontières physique et sociale propres à la société disciplinaire,
et son fonctionnement à travers des milieux d'enfermement
relativement étanches entre eux ; ils témoignent plus
généralement d'une transformation des rapports individu
organisation qui relève de la modulation.
3) TIC et modulation
Modulation. C'est cette notion que Deleuze utilise dans
son “post-scriptum sur les sociétés de contrôle”, pour
distinguer celles-ci des sociétés de discipline organisant ces
rapports sur le principe du moulage. Le texte apporte peu de
précision sur cette distinction, mais l'exemple donné de la
modulation des salaires permet de faire le lien avec d'autres
pratiques aujourd'hui courantes dans les entreprises qui
relèvent de ce qu'on appelle aussi la flexibilité : notamment
celle des horaires ou encore celle des emplois. La grande
distribution est particulièrement connue pour ces pratiques qui
reposent sur une analyse très fine de la fréquentation des
supermarchés. Cette analyse permet de calculer au plus serré le
besoin de main d'œuvre selon les heures de la journée. Les TIC
ne sont certainement pas la cause de tels choix, mais elles
contribuent à faciliter leur mise en œuvre, tout en les
légitimant, puisqu'ils sont rapportés à des données statistiques,
et ne dépendent pas du bon vouloir d'un chef. La modulation,
ici, concerne l'organisation du travail en regard de laquelle le
salarié est envisagé comme un simple objet, une variable qu'il
faut utiliser au mieux. Mais elle concerne aussi, il nous
semble, la manière dont la personne est aujourd'hui gérée. Si la
gestion des salariés dans les organisations porte à la fois sur
des masses et sur des individus, aujourd'hui plus qu'hier, c'est
sur les individus qu'elle porte, avec cette particularité que
suggère assez bien le passage d'une direction du personnel à
celle de la ressource humaine, qu'elle semble s'intéresser à
leurs pensées, leurs émotions, leurs désirs, aussi bien qu'à leurs
compétences, ou leur parcours professionnel. L'approche
analytique de l'individu selon une multitude de paramètres, à
travers des tests, entretiens d'évaluation, coaching, formation à
la PNL ou à l'intelligence émotionnelle, dessine ainsi un
individu fragmenté (un dividuel pour reprendre une expression
de Deleuze), toujours provisoire et en cela donc modulaire. Ici,
la logique gestionnaire n'est plus de l'ordre du moulage, mais
de la trajectoire, ce qui suppose une capacité d'adaptation, et
une volonté de progression, et sous-tend une évaluation
régulière, un contrôle continu permettant de se corriger, de
s'améliorer ou de s'adapter. Là encore, les TIC ne sont pas des
déterminants de cette quête de transparence et de cette
orientation gestionnaire et managériale ; mais les possibilités
qu'elles offrent en matière de stockage, de traitement
d'informations, de croisements de variables, et de restitutions
sous forme de textes, diagrammes, tableaux, et ce avec une
grande rapidité, rend plus aisée une gestion individualisante
des salariés.
Mais cette facilité pratique serait de peu de poids sans un
contexte qui en retour apporte légitimité et puissance à cette
gestion modulaire. Ce contexte, pensons-nous, est celui d'un
changement de la place de l'individu dans la société et ses
conséquences, mis en évidence notamment dans les travaux de
Christopher Lasch (2000), d'Alain Ehrenberg (1995 & 1998),
ou encore Dany-Robert Dufour (2001). Les crises des
institutions, de la société disciplinaire, des récits structurants
politiques et religieux, qui résultent notamment de
transformations culturelles conjuguées à l'évolution du
capitalisme, ont du même coup fragilisé le socle de la
construction identitaire des individus. Libéré de nombreuses
contraintes institutionnelles, l'individu est livré à lui-même et
est sommé dorénavant de se construire, de s'inventer. Lasch
parle à ce propos de culture du narcissisme, mais d'un
narcissisme qui n'est pas assumé, qui révèle une fragilité
nouvelle. Loin d'être une libération, ce changement conduit à
une dépendance accrue à l'égard d'autrui comme pourvoyeur
de gratification et d'un sens à son existence. Cette figure du
narcissisme, selon Lasch, est associée également au
développement important des experts (en particulier dans le
domaine de la psychologie) présents pour aider l'individu à
145
146
combler les failles de son narcissisme, à améliorer son
intelligence émotionnelle, etc, dans le domaine privé mais
aussi dans le domaine professionnel. Dans cette perspective, la
force de cette gestion modulaire est qu'elle s'appuie sur un
désir de contrôle qui se soutient d'une quête de sens.
Conclusion
En réaction contre l'idée d'un dépassement des sociétés de
contrôle inscrit dans un usage des TIC en milieu
organisationnel au profit d'une société de disponibilité, nous
avons mis en évidence le rôle plus ou moins direct des TIC en
matière de contrôle. En faisant cela, nous n'avons fait en
définitive que tirer la métonymie de Deleuze du côté des
pratiques : “A chaque type de société, écrit-il, on peut faire
correspondre un type de machine : les machines simples ou
dynamique pour les sociétés de souveraineté, les machines
énergétiques pour les disciplines, les cybernétiques et les
ordinateurs pour les sociétés de contrôle” (1990, p.237).
Ces pratiques indiquent que nous ne sommes pas
complètement sortis de la société disciplinaire ou d'une
logique disciplinaire du contrôle. Mais elles témoignent de
leur inscription dans des logiques nouvelles qui constituent la
société de contrôle et dont la modulation est ici l'illustration.
Et plus généralement, ce que nous disent les TIC de la société
de contrôle, limitée au champ des organisations, c'est qu'elle
est une oscillation entre contrôle de gestion et contrôle
d'identité, sur quoi repose les formes de dominations actuelles
et l'évolution du capitalisme.
Sans doute le capitalisme a-t-il besoin pour se développer
de cette double dimension du contrôle de gestion, qui prend
les individus comme des objets, et du contrôle d'identité, qui
les reconnaît comme sujet. Cette reconnaissance permet à la
fois de faire oublier aux individus le rôle de l'organisation dans
la construction de cette identité, de les maintenir dans un
“souci de soi” permanent, et de leur faire oublier qu'ils sont
des rouages du système, à travers la gestion dont ils font
l'objet, dans le domaine du travail, et aussi, dans celui de la
consommation, via le marketing.
Bibliographie
Ouvrages et articles
BOUILLON J-L. (2005), “Autonomie professionnelle et
rationalisations cognitives : les paradoxes dissimulées des
organisations post-disciplinaires”, Etudes de communication,
Organisation, dispositif, sujet, n°28, décembre, 91-106.
DELEUZE G. (1990), Pourparlers, Les éditions de Minuit.
LASCH C (2000), La culture du narcissisme, la vie américaine à l'âge
du déclin des espérances, Sisyphes/climats.
PANICO R, POULLE F. (2005), “Le projet comme outil de
gouvernement. De Foucault aux territoires de projets”, Etudes de
communication, Organisation, dispositif, sujet, n°28, décembre, 141158.
PENE S. (2005), “La «vie des hommes infâmes» dans la société de
disponibilité”, Etudes de communication, Organisation, dispositif,
sujet, n°28, décembre, 107-124.
(2005), Société de disponibilité. La vie quotidienne des
communautés artificielles, œuvre nouvelle en vue de l'habilitation à
diriger des recherches, Université de Paris 5 René Descartes,
décembre.
REY C., SITNIKOFF F. (2004), “Les technologies de l'information et
de la communication. Les nouveaux espaces-temps de la ville et du
travail”, Esprit critique, vol 6, n°3, http://vcampus.univperpignan.fr/espritcritique/0603:esp0603article14.html
RAY J.E (2001), Le droit du travail à l'épreuve des NTIC, Editions
Liaisons.
SCHWEITZER L (2003), TIC et contrôle social : regard sur le travail
dans
les
centres
d'appels,
Terminal,
n°89,
www.terminal.sgdg.org/articles
VENDRAMIN P. (2002), “Les TIC, complices de l'intensification du
travail”, actes de la conférence CNRS/CEPREMAP/CEE, www.ftunamur.org/publications
WHYTE W.H. Jr (1959), L'homme de l'organisation, Plon.
Presse
Jean-Luc Porquet, “La paix, c'est la guerre”, Le canard enchaîné,
8 février 2006
Christophe Nobili, “La caméra cachée, nouvelle optique
sociale”, le canard enchaîné, 2 mars 2005.
E.R., “Les non-dits de l'embauche”, Libération, dossier emploi
«à l'heure de big blogger”, lundi 20 février 2006
S.F., “Prêt pour être «googlé», Libération, dossier emploi «à
l'heure de big blogger”, lundi 20 février 2006
Libération, dossier emploi «Blackberry, un sans fil à la patte»,
Lundi 5 décembre 2005.
Expérimentation et étude des pratiques et usages organisationnels des TIC dans l’univers
professionnel à travers le déploiement d’un dispositif technique innovant : les blogs.
Nolwenn HENAFF
CERSIC ERELLIF / Université Rennes 2
[email protected]
Introduction
Nous proposons dans cet article, d’étudier comment ce
dispositif numérique éditorial sans précédent qu’est le blog,
agit sur les processus de communication d’une organisation en
créant des usages de l’espace et du temps inédits, des
nouveaux rapports aux autres, aboutissant au final à une
organisation innovante du travail.
Nous commencerons notre étude par l’analyse de l’objet
blog en tant que nouveau dispositif technique
communicationnel. Le travail s’oriente sur le contenu de
l’offre avec comme axe de recherche la réponse à des
problématiques de communication interne (blogs d’entreprise)
146
147
et de promotion externe (blogs à vocation marketing).
Ensuite, nous verrons dans quelle mesure, le déploiement
d’un intranet et/ou d’un blog d’entreprise, d’une plateforme de
travail collective, peut avoir un effet plus ou moins direct et
mesurable, sur les organisations en les faisant évoluer et en y
créant, de nouvelles formes de pouvoir, de territoires, de
communication, de pratiques de lecture, d’écriture «écrits de
réseaux» et de travail, devenant à terme un véritable outil de
management de l’information. Nous illustrerons nos propos
d’un cas concret.
Enfin, nous terminerons par quelques exemples « in situ »
de pratiques et usages de blogs en milieu universitaire.
1.Les blogs au service des entreprises : à la recherche
d’un modèle organisationnel
Un dispositif technique aux usages en développement
exponentiel
La montée en puissance des blogs est en marche, que ce
soit les journaux, les entreprises, les hommes politiques ou
l’individu moyen, tous sont appelés à se positionner par
rapports à ces nouveaux carnets de bord en ligne multiformes.
De fait, il peut aussi bien prendre la forme d’une page
personnelle consacrée aux vacances de son auteur, d’une lettre
d’information spécialisée, d’une note politique ou bien encore
constituer un véritable outil marketing de promotion et de
communication.
Nouvelle source d’information majeure, de part sa
multiplication, sa facilité de mise à jour et sa visibilité possible
par les flux RSS1, les blogs suscitent des commentaires
passionnés et il suffit pour s’en convaincre de lire la presse,
d’écouter la radio ou de regarder la télévision.
Le phénomène est encore nouveau mais atteint déjà un
stade de développement impressionnant. Ce qui est nouveau
peut fait peur, nous pourrions effectivement anticiper quelques
craintes sur les divers usages, mais c’est en oubliant qu’il
semble correspondre à ce que l’Internet communiquant offre
de meilleur : la convivialité, l’interactivité, la possibilité de
publier et d’échanger relativement simplement d’un point de
vue technique.
Pour une définition précise du dispositif technique, nous
allons nous référer à celle donnée par l’Office québécois de la
langue française : « page Internet évolutive et non conformiste
présentant des informations de toutes sortes, généralement
sous forme de courts textes mis à jour régulièrement, et dont le
contenu et la forme, très libres, restent à l’entière discrétion
des auteurs ». Reste ensuite à en analyser le contenu, la forme,
et les usages.
Blogosphère, mythe ou réalité pour les entreprises ?
Faisant partie de ces outils qui améliorent la circulation de
l’information, le blog dépasse, en entreprise, sa simple
fonction de moyen d’expression. Du côté des entrepreneurs,
c’est la peur de ne plus maîtriser ni de filtrer l’information qui
domine, cependant certaines entreprises ont décidé
d’expérimenter cet outil dans le cadre de leur communication
interne, laissant à leurs salariés la possibilité de blogger en
toute tranquillité, l’idée étant de leur permettre d’échanger sur
leurs pratiques professionnelles. Aussi, de façon plus
opérationnelle, cet outil collaboratif peut faciliter les échanges
entre les collaborateurs d’une entreprise dans le cadre d’un
travail géré en mode projet. Il peut enfin devenir un véritable
outil de gestion des connaissances dans le cas où il intègre des
fonctions de recherche sur Internet et/ou intranet.
La mise en place de systèmes de gestion de contenus
(CMS) dans l’entreprise, qu’ils revêtent la forme d’Intranet ou
de blogs, permet d'agir sur plusieurs enjeux stratégiques et
décisionnels. En tant que systèmes d'information intégrés, ces
plateformes permettent d'automatiser et de rendre intuitif, les
activités dévolues aux espaces collaboratifs, facilitant par là
même l'adhésion des utilisateurs et permettant des montées en
charge et une circulation d'information optimale.
Un blog peut aussi représenter le savoir-faire d’un
collaborateur en décrivant sa méthode de travail qui peut
devenir à terme une procédure facilement accessible à tous. Le
blog, a aussi franchi un nouveau pas dans le monde de
l’entreprise à l’occasion du salon BlogOn1 qui lui était dédié et
qui le positionne comme un véritable outil de communication
au service de l’entreprise. Un outil de communication
interactif à double tranchant tout de même, puisqu’en plus de
véhiculer des informations, ses promoteurs assurent que sa
seule existence doit associer l’entreprise à des valeurs de
transparence et d’ouverture.
C’est ainsi qu’une étude conduite par Harris Interactive
indique que seulement 5% de ces grands patrons2 voient un
« blog corporate » comme outil de communication, et pourtant
21% d’entre eux lisent au moins une fois par semaine des
parutions dans les blogs relatifs à leurs activités. Interrogés sur
leur frein principal, 67% des patrons estiment qu’il serait
nécessaire de mettre en place des règles dans l’entreprise pour
cadrer l’usage des blogs. Car se doter d’un blog est une chose,
accepter la critique en est une autre : le blog reposant sur un
principe initial de partage et de discussion. Ainsi, malgré un
surcroît de visibilité, une grande popularité, une modernité du
support, associés à une forte demande des salariés, les patrons
invoquent les multiples complications possibles liés à la
responsabilité du gestionnaire qui devra apporter des réponses
et alimenter le blog.
Alimentés par les salariés en temps de crise, le blog
s’impose alors comme le moyen le plus rapide et le plus
efficace pour se faire entendre. Véritable chronique
quotidienne, l’exemple du journal de bord « d’Amen en
grève » alimenté par les salariés a raconté l’évolution du
mouvement social. Fédérant les collaborateurs autour d’une
cause commune à défendre, le blog mobilise alors pour un
temps donné dans un espace délimité mais libre d’accès, une
communauté de personnes aux intérêts partagés, il entre bien
alors dans le cadre de production de liens sociaux, liens
renforcés dans la poursuite, la défense d’une action, d’un
projet, d’une cause commune.
Ces communautés créées à un instant ‘t’ ouvrent de
nouveaux territoires, de nouveaux espaces d’expression et
peuvent à terme modifier les rapports de force dans
l’entreprise entraînant une modification profonde du dispositif
communicationnel et relationnel en place. Des relations d’une
forme plutôt verticale (quand la ligne éditoriale est maîtrisée
par le manager) dominaient jusqu’à présent sur le Toile, avec
les blogs, ce sont des relations horizontales, directes et
itératives, qui prennent le dessus.
Chaque individu peut exprimer ses opinions et recevoir en
retour les avis des autres. Ce processus très itératif se veut
constructif dans la mesure où il se base sur des échanges en
bonne intelligence, les blogs peuvent parfois exprimer la
« sagesse » commune. C’est le cas d’un millier d’employés de
Microsoft qui publient leur blogs et font part aux curieux
(700 000 les trois premiers mois) de morceaux choisis de leurs
activités.
Outil communicationnel alternatif : le blog marketing
La nouvelle tendance est le développement de blogs
marketing destinés à transmettre diverses informations, mais
de manière plus personnelle (l’auteur de chaque message étant
identifié), réactive (simplicité d’utilisation) et ouverte aux
critiques. Le blog peut ainsi décliner plusieurs modèles à
finalités variées.
Le blog publicitaire qui a une durée de vie très courte se
147
148
voit créer spécialement pour promouvoir un nouveau produit
ou une marque dans le cadre d’une campagne ponctuelle, son
principal risque concerne l’audience avec une exposition faible
qui ne permettrait pas un retour sur investissement suffisant.
Le blog institutionnel, quant à lui, permet à l’entreprise ou à sa
direction d’initier un échange avec le lecteur. Ils répondent
principalement à des objectifs de valorisation, d’humanisation
de l’entité. Les blogs peuvent aussi occuper une place au sein
du dispositif CRM1lorsque les lecteurs peuvent contribuer et
réagir sur le blog de l’entreprise. C’est le cas de Michel de
Guihermier, créateur du site de développement de photos en
ligne Photoways4 qui a très vite assimilé ce nouveau support.
«Depuis quelques mois, je mets mes prestations, mes
promotions, mes produits, sur mon blog. C’est incroyable,
3000 à 4 000 personnes le visitent chaque jour. Nombre
d’entres eux émettent des suggestions, évidemment je m’en
inspire»2.
Pourtant l’audience n’est pas toujours au rendez-vous et
les pionniers qui s’essayent à ce nouveau mode de
communication doivent respecter quelques règles de la
blogosphère : habituées au secret, les marques se voient
obligées de jouer la transparence, la spontanéité et l’échange,
de plus il est préférable que le blogueur soit extérieur à la
marque et que cette dernière soit clairement identifiée par le
visiteur.
Ces nouveaux modes de diffusion de l’information et de
communication directe et spontanée présentent cependant
beaucoup d’avantages et permettent avant tout de développer
la complicité avec la clientèle, le blog remet ainsi de l’humain
dans un monde « hyper- communiquant », les clients peuvent
alors se réapproprier la marque.
2. Pratiques et usages des TIC : un cas d’entreprise
L’Intranet d’un l’Urssaf : étude de la réception du côté
des salariés, d’une stratégie managériale mettant en œuvre
une nouvelle pratique et un nouvel usage des TIC :
Depuis quelques années, les URSSAF (Union pour le
Recouvrement des cotisations de Sécurité Sociale et
d’Allocations Familiales) comme de nombreux services
publics, sont confrontés à la nécessité de s’adapter aux
souhaits des citoyens de voir se simplifier leurs relations avec
les administrations. En interne, cela se traduit par une nouvelle
organisation des services orientée client. L’adaptation à
l’environnement dont font preuve les l’URSSAF se retrouve
également dans les choix qu’elles opèrent en matière de
technologies. De fait, l’URSSAF que nous allons étudier
assure quant à elle une veille technologique continue par
l’intermédiaire de son service informatique qui l’a tient
informée des innovations qu’elle serait en mesure d’intégrer.
Naissance du Portail Internet
Les difficultés rencontrées dans la conduite de changement
lors de la mise en place du projet de réorganisation interne en
2003 a fait prendre conscience à la Direction de la nécessité de
réfléchir sur les moyens qui permettent de véhiculer et de
développer une culture d’entreprise. La principale difficulté
constatée dans la conduite de projet tenant plus à la déficience
de la communication managériale qu’aux aspects techniques
du dispositif. Outre, la communication, c’est aussi
l’information qui est visée, la gestion documentaire et l’accès
aux bases d’informations dématérialisées devenant une
priorité. Dès le départ du projet, la dichotomie aspects
techniques de l’outil et contenu et usages est établie, l’objectif
visant de mettre la technique au service de l’utilisateur et de
ses besoins.
Un outil au service d’une stratégie d’entreprise
Le projet « portail Internet » dans sa dimension locale est
avant tout conçu comme un dispositif communicationnel à
vocation de décloisonnement interne. Pour cela il doit apporter
des informations utiles et à valeur ajoutée pour le personnel
dans la gestion de son quotidien pour assurer son
appropriations et ainsi permettre une responsabilisation aussi
bien individuelle que collective sur les objectifs et résultats de
l’entreprise.
Calypso (nom donné au dispositif) a donc été réalisé en
2004 pour favoriser la communication interne. Son ambition
portait notamment sur la mise en exergue de la vie de
l’entreprise, ses enjeux, sa culture et son environnement sous
ses multiples aspects.(législatifs, organisationnels,
documentaires et pratiques). L’objectif principal reposant sur
l’appropriation de l’outil qui devait conduire à terme à une
dynamique d’échanges interne, le tout initié par une volonté
marquée de la direction et du personnel d’encadrement.
Un bilan mitigé
Plus d’un an après la mise en place du dispositif, force est
de noter des dysfonctionnements importants : pas de politique
éditoriale, des contenus incomplets, des sujets pas traités et
un manque de réactivité. Ces constats nous renvoient à une
problématique plus globale de pratiques de la communication
au travers d’un dispositif innovant et à un questionnement sur
l’origine de cette sous-utilisation. Entre d’autres termes la
remise en cause doit-elle plutôt porter sur l’outil et son
appropriation (demande) ou sur le management de
l’information (offre) et plus généralement sur la culture de la
communication ? Considérée comme stratégique par la
direction, la communication est un véritable enjeu pour
l’organisme, cependant la gestion de l’alimentation n’est
partagée que par très peu de personnes et de plus cette
importance n’est pas forcement ni comprise, ni relayée par les
membres de l’encadrement. Du côté de la demande, pour être
visité, il convient d’adapté le contenu de l’Intranet aux
attentes du lectorat. C’est dans cette optique qu’une étude à la
fois quantitative et qualitative a été mis en place en avril 2006
pour mesurer le taux de satisfaction du lectorat.
L’enquête
Les objectifs de cette enquête sont triple : appréhender le
comportement des utilisateurs vis à vis de l’outil, recueillir
leur avis, identifier les futures besoins. Le questionnaire est
mis à disposition en ligne sur l’Intranet pour une durée de
deux semaines et comporte huit questions dont quatre
questions fermées, trois à échelles de valeur, et une ouverte. La
1ère question concerne une donnée quantitative : la fréquence
de consultation (une réponse possible de plusieurs fois par jour
à jamais), la 2ème à choix multiple questionne les raisons de
l’utilisation de l’outil avec une question à champ libre, la 3ème
interroge les moments de consultations (plusieurs réponses
possibles), la 4ème question concerne plus particulièrement la
lecture de la revue de presse consultation (de tous les jours à
jamais), la 5ème sous forme d’échelle de Lickert2 se réfère à
l’ergonomie de l’intranet (sa présentation, son organisation,
ses usages), la 6ème aussi sous forme d’échelle de valeur aborde
le thème du contenu, la 7ème question porte sur les nouveaux
éléments de contenu souhaités (plusieurs réponses possibles),
enfin la dernière question est un espace d’expression libre
facultatif.
Résultats et analyse
Sur 140 salariés, 75 ont répondu à l’enquête soit 54% de
148
149
taux de réponse.
Concernant les usages de fréquentation (questions 1,3 et
4), tous les sondés consultent l’Intranet (41,33% plusieurs fois
par jour, 18,67% de une à 4 fois par semaine et 29,33%
consultent la revue de presse tous les jours). A noter cependant
que les comportements ont évolués, alors qu’en novembre
2005 les consultations étaient de 4,6 par agent et par jour, elles
tombent en avril 2006 à 1,4 visites en moyenne par jour et par
agent. La chute de fréquentation constatée depuis novembre
2005 s’explique par deux phénomènes : un directement lié au
contexte avec une montée en charge du travail et donc une
mobilisation générales des services à d’autres taches, l’autre
phénomène peut s’expliquer par les travaux de modélisation de
l’usage des blogs fait par le professeur américain John Grohol
(GROHOL, J., Psy D (2005) Internet Addiction Guide) qui
nous invite à penser le phénomène « blog » à l’aide d’un
modèle « model of Pathological Internet use » applicable à
l’utilisation de toute nouvelle technologie, de tout nouveau
dispositif technique et notamment des blogs. Sa démarche
s’effectue en quatre phases distinctes et étalées dans le temps.
La première phase correspond à la découverte de l’usage de
l’objet qui se traduit par une nouvelle activité online, (c’est le
stade de l’expérimentation de l’objet), née d’un besoin
personnel ou social qui s’exprime au travers de la création ou
de la première participation à un blog. La deuxième phase
traduit l’enchantement du blogueur, voire son obsession avec
une démultiplication des temps de connexion, une dispersion
de ses activités, une effervescence comparable à l’utilisation
de drogues ou autres stimulants. La troisième phase se
caractérise par un rejet, une désillusion quant à l’usage fait de
l’objet, une sorte d’over dose qui se décrit pas un
décroissement de l’activité. Enfin, le dernier stade est
synonyme d’équilibre, de retour à la normale, il est caractérisé
par un usage plus rationnel et efficient du dispositif, moins
guidé par les émotions (niveau atteint dans notre exemple).
Les moments choisis pour se connecter à l’Intranet ne sont
pas significatifs, de fait ils s’étalent tout au long de la journée.
Concernant l’utilisation, le portail Intranet est avant tout
une source majeure d’informations : les actualités (news,
brèves, agenda, …) sont consultées par 88% du lectorat,
devant la recherche documentaire (vie collective, procès
verbaux divers,…) 57.33%, et l’accès aux services
(commandes de fournitures, demande de congés,…) 56%.
L’actualité reste donc primordiale
En matière d’ergonomie et de contenu (questions 5 et 6),
le dispositif est apprécié pour sa facilité d’utilisation et son
interface conviviale qui favorise une appropriation de l’outil.
Les améliorations souhaitées visent une gestion éditoriale plus
réactive et une évolution de certaines rubriques restées
identiques depuis la mise en ligne du portail.
A la question 7 : quels nouveaux éléments voudriez-vous
voir apparaître ? La réponse qui arrive en premier est un
historique des news (45.33% des sondés souhaitent un
historique des informations publiées), la deuxième position
revient à la mise en place d’un espace d’expression libre type
blog avec 38.33% des réponses.
Préconisations
Après deux ans de fonctionnement, Calypso peut être
satisfait de son premier bilan Le dispositif a été adopté comme
outil de communication de proximité. Nos recommandations à
court et moyen terme s’orientent autour de deux axes :
la mise en place d’un comité éditorial qui permettrait
d’impulser une véritable politique éditoriale avec une
double
mission :
dynamiser
la
remontée
d’informations et placer au rang d’instance
stratégique de la communication interne les
évolutions de l’outil.
-
la réorganisation et la gestion des quatre espaces :
l’espace métier va être de moins en moins utilisé,
l’espace documentaire est sous-alimenté, celui
consacré aux services est en pleine évolution (ce qui
devrait à terme rendre l’outil incontournable), et
l’espace news qui manque de réactivité et
d’interactivité Il a été décidé qu’il était trop tôt pour
modifier cette répartition : la priorité passant par
l’augmentation de l’attractivité de l’outil, elle-même
conditionnée par une meilleure adéquation à la
demande des rubriques documentaires et nouveautés.
La création d’une rubrique ressources humaines et
suivi des projets n’a pas été jugé pertinentes à ce
stade de développement.
A moyen terme, deux types d’évolutions sont envisagées :
au niveau de l’offre, suite à l’analyse des besoins du lectorat
avec la création d’un trombinoscope par exemple mais aussi la
possibilité d’offrir un espace libre d’expression ouvert à tous.
La mise en place stratégique de ce blog se conformerait aussi à
la stratégie de la direction qui prône un fort développement de
la culture d’entreprise. Le moment d’ouverture devra être très
bien choisi, il faut ainsi éviter les temps de crise et
d’incertitude comme c’est le cas actuellement (signature d’un
nouveau contrat quadriennal avec l’Etat avec allocations des
ressources, mutualisation, restructuration, …). La direction
souhaite initier ce type de plate-forme d’échanges dans un
climat porteur comme un changement de locaux.
Les évolutions techniques permettront quant à elles, un
intégration de l’Intranet dans l’outil de messagerie, une plus
grande souplesse de création de rubriques et la mise en place
d’une zone d’archivage des articles.
3. Pratiques et usages des TIC : des exemples en
Université
Dans le monde universitaire
Côté enseignants
Entre enseignants stricto-sensus avec comme dernier
exemple en date de l’été 2005, le chef de projet du site Internet
Stid-France, site qui rassemble tous les départements STID
(statistique et traitement informatique des données) des IUT de
France a mis en place un système d’échange de réactions et
d’idées qu’il résume en un mot un blog et qu’il a nommé
« beluga » à usage de tous les enseignants du département.
Dialogue, travail collectif, la technique sert bien ici de plateforme d’échanges à une communauté bien concrète et se
connaissant a priori dans le cas présent mais qui avait besoin
d’un nouvel espace physique (virtuel) pour communiquer et
collaborer.
Entre enseignants et élèves : c’est ainsi qu’une PAST de
l’IUT de Vannes a créé le blog du cours de communication
commerciale des étudiants de TC (technique de
commercialisation) de Vannes avec des fonctionnalités allant
du calendrier du programme de l’année, aux travaux en
cours, c’est un véritable espace dédié qui s’est mis en place
pour regrouper pour une année des étudiants d’une même
formation.
Au service de la recherche, pour partager son
expérience et publier ses recherches
De fait, publier ses travaux, ses pensées ou informer par
Internet grâce au blog permet d’accroître sa visibilité.
L’actualité d’un département, la liste des membres d’un
laboratoire de recherche, leurs travaux pratiques peuvent ainsi
être soumis à lecture et commentaires extérieurs. L’effet blog
se mesure au travers du développement d’un réseau, d’une
dynamique externe qui incite les chercheurs à se retrouver
dans des colloques, des groupes de travail ou lors de journées
149
150
d’étude. Visibilité dont l’université peut elle-même tirer des
bénéfices en terme de notoriété.
Pour une dynamique du savoir
Pour Jean-Paul Pinte de Lille 1, l’utilisation des blogs par
les étudiants pour publier leurs articles et travaux « donne une
autre dimension au travail des élèves ». De fait, les
commentaires, retours et critiques émis viennent encourager
les élèves à défendre leurs idées, leurs écrits face au public.
Cela permet aux jeunes de se retrouver dans une nouvelle
dynamique de motivation lorsqu’ils voient une autre
impulsion, une autre dimension données à leur travail.
Conclusion
Les exemples présentés ci-dessus regroupent pour un
temps donné, dans un espace virtuel interactif, des acteurs qui
poursuivent le même objectif, qui adhèrent au même projet.
Bibliographie :
GROHOL, J., Psy D (2005) Internet Addiction Guide.
Webographie :
Le blog d’entreprise à l’épreuve du risque, Blogs de marque: les
pionniers témoignent, un nouveau blog toutes les 6 secondes (2005),
(articles en ligne sur http://www.journaldunet.com >)
Blog du cours de communication des étudiants de TC de Vannes,
(2005), (blog en ligne sur < http://blog.ca >).
La blogosphère reste aux portes des entreprises, (2006), (article en
C’est le reflet d’un processus complexe de changement des
modes d’organisation et de travail qui poussent les individus à
se regrouper par objectifs partagés, cette démarche transversale
nous la retrouvons en entreprise par le travail en mode projet.
L’exemple de l’Urssaf témoigne quant à lui de la volonté
d’une direction à faire évoluer sa communication interne.
Partant de la mise en place d’un portail Internet, d’un véritable
outil collaboratif, le dispositif va peut-être s’enrichir d’un
espace libre, laissant ainsi aux employés la possibilité de
blogger en toute tranquillité, l’idée étant de leur permettre
d’échanger à terme essentiellement sur leurs pratiques
professionnelles. Dans le cas où la rubrique suivi de projets
serait ouverte, cet outil, de façon plus opérationnelle, pourrait
faciliter les interactions entre les collaborateurs dans le cadre
du travail géré en mode projet. Il pourra enfin devenir un
véritable outil de gestion des connaissances quand il intègrera
des fonctions de recherche sur Internet et/ou intranet.
ligne sur http:www.atelier.fr ).
Blogs marketing, (2004), (articles en ligne sur < http://www.abcnetmarketing.com >).
La maison des universités (2006), blogs et enseignement supérieur
(en ligne sur <http://www.cpu.fr> ).
PINTE, J.P, (2006) : (documents en ligne sur <
http://veillepedagogique.blog.lemonde.fr> ).
De l’explication des effets, à la compréhension des usages des TIC
dans les organisations : un défi pour les SIC.
Olivier HIRT
CERIC, Université Montpellier 3
[email protected]
Résumé : Cette communication propose de revisiter, sous l’angle des Sciences de l’Information et de la Communication, les
phénomènes organisationnels liés aux TIC. Les approches scientifiques habituelles découpent en processus, une réalité complexe.
150
151
Nous nous intéresserons aux usages (ou non usages), en tant que communications porteuses de sens, construites par les acteurs en
situation, en nous appuyant sur le cas d’étude d’une collectivité locale de trois mille acteurs.
Notre recherche, à partir d’un travail empirique de terrain, abouti sur l’élaboration d’une méthode pour les concepteurs, les
dirigeants, etc. Elle permet d’une part de faire émerger les usages des TIC au sein de leur organisation et d’autre part de
comprendre comment les acteurs à travers ces usages, envoient des communications signifiantes pour négocier leur façon d’« être
à l’organisation ».
Mots Clés : système, être à l’organisation, usage, dispositif sociotechnique, contexte organisationnel, communications
signifiantes.
« A mesure que croît l’information distribuée dans tout l’espace social,
décroissent les relations entre les pratiquants de cet espace. »
DE CERTEAU Michel, « La communication ordinaire »,
Editions du Seuil, Paris, 1994
Introduction
Les « instruments technologiques », du fait de
l'introduction massive, à tous les niveaux des organisations,
des technologies de l'information et de la communication,
prennent une place de plus en plus importante dans ces
organisations. Les différents acteurs sociaux (chefs,
subordonnés, équipes, ...) sont de plus en plus « aux prises »
avec des dispositifs sociotechniques pour leur recueil de
renseignements (veille économique et informationnelle), la
définition de leur travail (intranet), leur collaboration
(groupware), leurs décisions (workflow), leurs relations
(messagerie)...
Les Sciences de l’Information et de la Communication
sont aujourd’hui en mesure d’investir ce champ des TIC. Elles
disposent des outils intellectuels et des méthodes scientifiques
pour appréhender les phénomènes complexes qui se déroulent
au sein des organisations lors de l’usage des dispositifs
sociotechniques par les acteurs en situation.
Lorsque les SIC, à leurs débuts, ont étudié les phénomènes
de communication dans les organisations, les chercheurs ont
apporté un regard nouveau sur ces phénomènes étudiés,
jusqu’alors réservés à une approche positiviste des sciences de
gestion ou psychologie du travail. Aujourd’hui, les approches
des TIC sont faites essentiellement par les sciences cognitives,
informatiques, gestion et les sciences de l’éducation dans le
cadre des technologies de formation en ligne.
Ces orientations classiques des études au sujet de ce
phénomène important, appréhende les choses en termes
d’impact des TIC dans les organisations, sur les différents
processus organisationnels : processus de travail, processus de
management, processus de collaboration, processus de
normalisation et d'acculturation, processus « d'intelligence
collective », processus de négociation, processus de
constitution des identités de groupes ou de métiers, processus
de restructuration, ...Une telle orientation ne nous parait pas
forcément pertinente car elle décomposeen
« effets » localisés,
une réalité complexe qui est le changement conjoint de « l'être à l'organisation » des acteurs sociaux et de « l'organisation »
elle-même en tant que construit intellectuel des acteurs qui la
composent. C'est une situation globale de travail qui change, et
de ce fait, la technologie seule ne va pas déterminer les
changements sociaux (dont les usages au travail de cette TIC
par les membres de l'organisation).
La question qui se pose alors est la suivante : « Que se
passe-t-il du point de vue de la communication, pour les
acteurs en situation, lorsqu’une organisation utilise une TIC et
voit ses acteurs internes développer des usages ? »
Nous
présenterons
rapidement
l’épistémologie
constructiviste de notre approche Sciences Info-Com des TIC.
Puis nous l’appuierons l’étude de cas d’une collectivité locale
souhaitant faire évoluer l’« intranet » au sein de sa structure.
Cadrage épistémologique
Constructivisme
En tant que chercheur en SIC, nous nous inscrivons dans
une épistémologie constructiviste et le paradigme de la
complexité.
Le constructivisme est une position épistémologique, un
point de vue sur la nature de la connaissance scientifique. Le
chercheur voit les « objets scientifiques » comme des
« construits intellectuels » reposant sur les a priori
scientifiques qu’il ne peut pas ne pas avoir lorsqu’il perçoit et
met en forme le « réel » pour le rendre intelligible. La vérité
n’existe pas, le chercheur ne s’intéresse qu’à la « convenance »
de la découverte.
« Chaque théorie est comme un filet jeté sur les
phénomènes et elle ne peut ramener que ce que les mailles du
filet lui permettent de ramener. » La connaissance est toujours
inachevée. Ce positionnement propose de concevoir
l’organisation comme un construit intellectuel des acteurs qui
la composent. Une organisation n’est pas palpable, n’est pas
visible, … On ne peut y avoir accès que par les représentations
et les communications (dans son acception la plus large soir
comme conduites humaines) que nous livrent ses membres.
Paradigme de la complexité
Conjointement à l’épistémologie constructiviste, nous
inscrivons notre travail dans le paradigme de la complexité
insufflé par Edgar Morin. La science occidentale
contemporaine a procédé à l’élimination positiviste du sujet,
cet inconnu, cet incertain. Et l’avènement des TIC réifie
l’objet, ce connaissable, ce déterminable, cet isolable et par
conséquent ce manipulable. Par une vision complexe de la
situation nous ne prétendons pas à la compréhension
exhaustive de la situation mais bien à sortir de la vision
déterministe, centrée sur l’objet et donc incapable de
considérer l’humain et les phénomènes d’auto-organisation.
Nous nous écartons du mécanisme qui découpe LA réalité, en
quête de LA vérité, à la manière des sciences dites « dures »
(jusqu’à la découverte d’Einstein avec la mécanique quantique
et la théorie de la relativité) afin de considérer un tout
complexe, UNE réalité pertinente, ancrée.
Le cas d’une Communauté d’Agglomération
Présentation de l’organisation
Cette collectivité locale compte 3000 acteurs répartis dans
des structures très diverses (siège, bibliothèques, musée,
piscine, salle de spectacle, maison d’agglomération, …) et des
postes variés (président, élus, chargé de presse, secrétaire,
directeur de bibliothèque, documentaliste, éboueur,
standardiste, directeur de direction, informaticien, …). C’est
une organisation très hiérarchisée, divisée en services.
Au sommet, on compte le président appuyé par le bureau
des vices présidents, le directeur général des services et le
151
152
cabinet du président lui-même appuyé par la direction de la
communication. Ce sommet hiérarchique est fortement
politique, les acteurs ont conscience que si un changement
d’orientation politique s’opérait, leurs postes seraient alors à
pourvoir. Ils sont orientés vers les citoyens et la direction de la
communication est là pour communiquer les actions, décisions
et l’image de la Communauté d’Agglomération. Le directeur
général des services est en relation avec les directeurs de pôle
et chaque pôle compte cinq ou six directions auxquelles sont
rattachées diverses structures.
Toute cette organisation est le fruit d’une forte et rapide
expansion. Les acteurs qui étaient présents à la naissance du
district (regroupement de communes avant la communauté
d’agglomération) se plaisent à nous rappeler « qu’avant tout le
monde se connaissait » et qu’aujourd’hui « chacun est
cloisonné dans son service ». Cette expansion ajoute un
phénomène important de turn-over (va et vient de personnel)
qui a fait augmenter considérablement les effectifs de la
direction des ressources humaines.
Au départ, le service informatique comptait deux
personnes, dont le directeur actuel. Aujourd’hui ils sont
quatorze, répartis entre un groupe de projets et un groupe de
techniciens. Le parc informatique compte plus d’un millier
d’ordinateurs dispersés entre le siège et les différentes
structures. Tout un développement logiciel a été mis en place :
maintenance informatique à distance, site internet, accès
internet, messagerie électronique, applications spécifiques
(veille juridique, marchés publics, covoiturage, etc.), suite
bureautique, … Afin de réduire les coûts et de dépendre au
minimum de prestataires extérieurs ou de propriétaires
logiciels, le directeur des ressources informatiques a choisi
tant que faire ce peut des solutions OpenSource (code source
ouvert et gratuit).
Le scénario de mise en place de l’intranet est assez
classique si l’on s’en tient à la littérature de la sociologie de
l’innovation. Des acteurs techniciens, ont réalisé une sorte
d’invention technologique (un serveur permettant d’échanger
des fichiers via des pages HTML) et souhaitent l’étendre à
l’ensemble de l’organisation en le soumettant sous le nom
d’ « intranet », à leur hiérarchie et à la direction de la
communication. Dans le discours des acteurs du service
informatique, « cet outil a pour mission de décloisonner les
services et de fédérer les gens pour leur permettre un travail
collaboratif entre service ». Dans l’état actuel, l’intranet ne
présente que quelques pages très peu mises à jour, un annuaire
du personnel et le logiciel de covoiturage.
appréhendons le terrain avec nos aprioris, la conscience de
notre influence, dégagés de toute illusion d’objectivité, afin de
recueillir des données grâce à des outils matériels et
intellectuels (les méthodes qualitatives) qui nous serviront à
faire surgir un sens de la situation. Nous avons donc effectué
un premier cadrage limitant notre observation et nos
entretiens aux acteurs ayant un ordinateur connecté à
l’intranet. Nous avons interviewé l’ensemble des structures
(bibliothèques, piscines, siège, etc.) ainsi qu’un vaste champ
d’acteurs (directeurs, secrétaires, responsables, …) sans soucis
de systématisation mais bien celui de découvrir des formes
d’échange, des communications récurrentes. Au fur et à
mesure des premiers entretiens et par un aller-retour incessant
l’analyse et le terrain, nous avons recadré notre enquête en
nous présentant toujours aux acteurs comme chercheur en
DEA, souhaitant comprendre l’introduction de l’intranet au
sein de cette communauté d’agglomération.
Le positionnement du chercheur et sa méthode
Notre entrée au sein de cette organisation, s’est effectuée
directement avec la direction des ressources informatiques
(DRI) et une courte présentation auprès de la directrice de
pôle, sans contact avec la direction générale des services. Nous
n’avons rencontré le directeur général des services qu’en fin
de stage, pour lui proposer quelques préconisations. La DRI,
par l’intermédiaire du directeur et de la chef de projet de
l’intranet, souhaitait avoir un éclairage sur les usages de
l’intranet afin de définir un scénario d’optimisation et une
maquette à proposer à la directrice du pôle de direction.
L’une des difficultés majeures pour le chercheur, c’est le
risque d’instrumentalisation. Notre démarche doit se décentrer
de la demande concrète formulée par le commanditaire, pour
comprendre cette demande à un niveau significatif, en tant que
« réalité secondaire » replacée dans son contexte.
Le chercheur en SIC ancre son travail dans une approche
qualitative et en compréhension. Nous sommes dans une
démarche empirico-inductive à l’opposé de la démarche
hypothético-déductive qui consiste à utiliser le terrain pour
vérifier des hypothèses à l’aide de grilles préconstruites. Nous
Nous avons repéré deux formes récurrentes d’échanges :
Première forme récurrente : « il y a un problème,
on propose une initiative, on est bloqué ». Très rapidement
au court de l’audit, nous avons été surpris par l’événement
suivant : pour informer l’ensemble des acteurs que nous
allions les interviewer et prendre rendez-vous avec eux, nous
avons diffusé un courrier électronique avec l’appui de la
directrice du pôle. Tous les services ont joué le jeu, sauf la
direction de la communication (DirCom) qui se disait « ne pas
être un service comme les autres et vouloir participer à
l’élaboration de l’intranet ». Notre première interprétation fût
d’imaginer que c’est par notre intervention que nous avions
déclenché un conflit entre la DirCom et la DRI. Mais restons
humble, l’observation et les entretiens ont fait de cet
événement surprenant, la manifestation d’une forme récurrente
d’échange jouée entre la DRI et la DirCom. Nous avons appris
que depuis la création de l’intranet, la DRI a souhaité « refiler
le bébé » à la DirCom mais que ceux-ci ne souhaitaient pas
s’en occuper. Les deux acteurs (DRI et DirCom) ont une
vision différente de l’intranet : la DirCom nous dit que leur
travail « c’est que les agents de la communauté
Compréhension des jeux organisationnels des acteurs
Toute notre analyse repose sur l’approche systémique des
relations dans les organisations. Cette approche propose
d’envisager la réalité comme une définition, une « réalité
secondaire » dépendant du cadre d’interprétation de l’acteur.
L’approche systémique des relations propose de comprendre
un phénomène selon un mode de causalité circulaire, inscrit
dans un système complexe de communications, réglé par des
jeux comprenant chacun leurs coups. « Le jeu mène le je »
disait Paul Watzlawick. Le jeu collectif construit par les
acteurs prend le pas sur leurs volontés individuelles.
L’introduction de l’intranet est englobée dans le système
qui dispose de sa logique élaborée par les règles que les
acteurs ont construites et dépasse la volonté individuelle des
acteurs du système. L’usage (ou non usage) de l’intranet est
donc une communication signifiante envoyée par les acteurs au
collectif.
Suite à nos entretiens, s’est reconstruite l’histoire
organisationnelle autour de l’intranet, pointant le début de
l’introduction de l’intranet au moment où le directeur des
ressources informatiques a « bricolé » quelques pages HTML
sur un serveur afin de partager des ressources. D’un point de
vue linéaire, il s’agirait du point de départ. Mais d’un point de
vue systémique (causalité circulaire) il s’agit d’une
communication qui entre dans un système déjà en place.
L’acteur élabore une stratégie pour tenter de répondre à une
problématique organisationnelle qu’il s’agit de découvrir en
faisant émerger la logique du système.
152
153
d’agglomération ne soient pas informé après les citoyens. On
doit contrôler ce qui est diffusé, on ne peut pas se permettre
que n’importe qui écrive n’importe quoi. » et la DRI voit
l’intranet comme un outil qui permettrait aux agents
d’échanger entre service, de partager l’information, de
communiquer et de travailler ensemble, palliant au
cloisonnement des services.Quelques
mois auparavant s’est
joué un jeu similaire entre les Ressources Humaines (DRH) et
la DirCom à propos d’un livret d’accueil. La DRH avait lancé
l’initiative d’un livret d’accueil pour faire face au phénomène
de turn-over et ainsi accueillir les nouveaux agents, puis le
projet a été récupéré par la direction de la communication qui
venait de missionner un agent en tant que « chargé de
communication interne » (jusque là, il n’y avait personne
spécialement attaché à la communication interne de la
collectivité).
Deuxième forme récurrente : « on est cloisonné,
mal informé, on veut faire des choses ensemble ».
L’ensemble des directions du siège utilise peu l’intranet, à part
l’annuaire du personnel. Les structures extérieures en revanche
le consulte quotidiennement pour s’informer. Les acteurs
déplorent le manque de mise à jour et ne savent pas qui s’en
occupe et à qui s’adresser pour proposer des informations ou
des documents. Un seul service soutient ne pas avoir besoin de
l’intranet pour travailler et ne pas en vouloir. Les autres
tiennent un discours récurrent du type : « on voudrait bien
participer, on a de nombreux documents à proposer aux autres
services et qui leur seraient utile. Il y a quelques services
représentés mais il n’y a aucune présentation de leurs activités,
de ce sur quoi ils travaillent en ce moment. On est chacun dans
notre coin, dans notre service et le pire c’est pour les structures
extérieures au siège, on n’est vraiment pas intégrées, personne
ne parle de nous et on ne connaît personne au siège. … » C’est
une sorte de complainte soutenue collectivement.
Cette technologie et la communication faite par la DRI en
faisant réaliser ces entretiens, cristallise un ensemble de
communications révélatrices du « contexte organisationnel ».
Le phénomène ne prend un sens, une signification, seulement
mis en relation avec l’ensemble de la toile de fond
indispensable à toute compréhension d’une communication : le
« contexte organisationnel » .
Nous avons donc procédé à la schématisation des formes
concrètes des échanges puis nous les avons catégoriser pour
enfin en modéliser leur signification dans ce système :
Schématisation des formes concrètes d’échanges
Schématisation des catégories de formes d’échanges
Modélisation des significations
L’introduction de l’intranet apparaît comme une menace
pour le sommet hiérarchique. Pour la DirCom, c’est le risque
de la perte du contrôle de l’information, ils ne seraient plus
alors seuls détenteurs de la diffusion de l’information. Pour la
direction générale, la confiance n’est attribuée que dans « le
papier » et les « hommes de confiance », et non à une
technologie « qui n’est jamais sécurisée ». « Il ne s’agit pas
d’une priorité », la direction générale préconise l’embauche
d’un Directeur des Ressources Humaines qui résoudra les
problèmes de gestion du personnel.
La DRI à travers cette mise en place, s’investit d’une
mission de communication interne, dépassant ses compétences
et dénonçant l’absence de communication interne au sein de
l’organisation. Replacé dans le système nous comprenons que
cette direction, tente de proposer une réponse adaptée à ses
compétences, soit technologique, pour résoudre une
problématique organisationnelle générale de l’ensemble des
acteurs : être ensemble à l’organisation.
L’intranet en soi, n’a aucune validité, et aucune existence.
Il est investi symboliquement du message signifiant du
« vouloir être ensemble » à l’organisation.
Résultats et préconisations :
Au sein de cette Communauté d’Agglomération, la
problématique principale portait sur l’ « être collectif à
l’organisation ». Les services souffrent de ne pouvoir mettre à
disposition de l’information et des documents pour les autres
services et souffrent de ne pouvoir consulter des informations
sur les autres services. Ils souffrent de l’isolement qui entraîne
un manque d’information collective, mais tirent des bénéfices
secondaires certains de cette façon d’être.
La DRI entend bien la volonté d’ « être ensemble », mais
la réponse qu’elle apporte en fonction de sa seule compétence
technique, est englobée dans le jeu systémique en place. Cette
demande est aussi entendue par la direction générale des
services qui souhaite y répondre par le recrutement d’un DRH.
Ces « réponses » découpent la réalité complexe mis en
évidence par notre étude, en problématiques situationnelles
morcelées. Pour nous, il n’est pas pertinent d’adopter une
attitude de « solution immédiate », traduite par l’introduction
d’une technologie ou le recrutement d’un DRH. L’adoption de
la technologie induit un changement d’être à l’organisation de
la part des acteurs, qui demande à la direction générale, la
direction de la communication et la direction des ressources
informatiques de travailler ensemble sur un projet commun
pour faire émerger un sens nouveau dans l’usage de la TIC
« intranet ». La modélisation systémique montre de manière
simplifiée cette réalité complexe et permet aux dirigeants de
pouvoir se représenter les jeux de l’organisation et leur
implication dans ces jeux.
En apportant une solution immédiate, le chercheur entrerai
dans la logique du système et se verrai, dans une logique
d’instrumentalisation, porter tous les maux de l’organisation.
Conclusion
Le chercheur étudiant les évolutions organisationnelles
associées aux TIC, ne peut pas réduire le phénomène à un
simple découpage d’une réalité complexe : positionnement,
situation de travail, relations interpersonnels, hiérarchie,
workflow, …
Il est cependant difficile pour le chercheur qualitatif de
« naviguer » au sein des organisations qui attendent des
résultats tangibles, mesurables, et souvent immédiats. Cela
demande un travail important de réflexivité pour comprendre
comment se positionner sur le terrain afin d’éviter au
maximum l’instrumentalisation qui offre une situation
confortable mais dangereuse.
Nous avons vu comment par un positionnement
épistémologique
constructiviste,
une
démarche
méthodologique qualitative et la modélisation systémique des
relations, nous pouvons faire émerger le sens construit par les
acteurs dans leurs usages d’une TIC au sein des organisations.
Le chercheur se désaxe de l’angle déterministe de la
technologie pour appréhender les communications signifiantes
construites autour de la technologie, adressées au collectif,
dans les usages que les acteurs font de cette technologie et le
discours qu’ils tiennent.
Lorsque le chercheur interviewe et observe les acteurs, la
technologie apparaît alors comme un support à propos duquel
ils expriment leur « être à l’organisation ». Il parle d’une chose
pour parler d’autre chose. On retrouve ici le principe
hologrammatique. L’intranet, non pas en tant que technologie
mais comme « construit intellectuel », objet de représentations,
est apparu dans notre étude, comme révélateur du « contexte
organisationnel » et de l’être à l’organisation des acteurs en
situation. A travers les représentations que les acteurs
construisent à propos des potentialités de cette technologie
(décloisonner les services, être ensemble, etc.), ils construisent
153
154
des communications signifiantes adressées à l’organisation.
Dans cette logique, l’introduction d’une technologie
demande donc un travail de communication sur la construction
du sens pour les acteurs en situation.
Quelle régulation pour quelle société de l’information ?
HUET Romain,
154
155
GERIICO-CREE / Université Lille 3,
[email protected]
INTRODUCTION
Notre communication analyse les rapports sociaux qui se
jouent dans la production de normes éthiques, dont les TIC
(Technologies de l’Information et de la Communication) ne
sont qu’une composante pour l’étude des « évolutions
sociétales et économiques globales ». Les normes que nous
évoquons ici ne sont pas techniques. Il s’agit des chartes
éthiques et codes de conduite199. Les chartes sont des
« objets » de recherche stimulants car ce sont des
« communications symboliques » ancrées sur le rapport au
droit, qui affectent en premier l’administration des entreprises
dans la définition de leurs politiques sociales.
Notre objectif consiste à discuter une nouvelle problématique
dans le champ des « communications organisationnelles ». Il
s’agit d’analyser l’émergence des « nouvelles normes
éthiques », en particulier les chartes et codes de conduite, qui
contribuent à l’avènement d’une « société de l’information »
dont les contours et les rapports sociaux demeurent incertains
et en constantes évolutions. L’idée ici défendue, est que les
Sciences de l’Information et de la Communication
(dorénavant, SIC) ouvrent des perspectives scientifiques
stimulantes pour comprendre les mutations générées par la
prolifération des chartes. Nous appuierons l’avis selon lequel,
la question des régulations sociales peut être interrogée à partir
de l’analyse des relations entre les acteurs et non
exclusivement à partir de l’analyse des acteurs et de leurs
actions. Pour cela, nous présenterons quelques pistes de ce que
peut être « observer la communication »200 dans le champ des
régulations sociales (1.). Nous les mettrons à l’épreuve du
terrain à travers l’étude des modalités de production d’une
charte produite par un collectif d’entrepreneurs (Charte de la
diversité) (2.). Enfin, nous mettrons en évidence les principaux
glissements conceptuels et conclusions que les SIC permettent
de tirer (3.).
1. Ressources théoriques
o 1.1 La singularité du regard communicationnel
Notre communication a pour principal objectif de montrer que
la question des régulations peut être interrogée à partir de
l’analyse des relations entre les acteurs, et non exclusivement à
partir de l’analyse des acteurs et de leurs actions. En ce sens,
cela exige d’emprunter aux divers collectifs scientifiques
(Sociologie, Sciences de Gestion, Sciences Economiques,
etc.), tout en produisant de manière autonome des éléments
nouveaux pour comprendre les problèmes posés par
l’émergence de nouvelles formes de régulation. Le point de
vue communicationnel privilégié ici consiste à interroger la
place de la communication dans le processus de construction
de la norme, en rendant compte des différentes formes de
confrontation. Dans cette perspective, la production de normes
est alors appréhendée comme un mode de gestion des relations
par la discussion.
Le regard communicationnel vise à restituer l’entreprise dans
le débat public. Depuis quelques années, les questions de
responsabilité sociale et de citoyenneté d’entreprise donnent
lieu à une intense production de littérature. L’entreprise ne
disposerait pas d’un rôle strictement économique, mais serait
199
Ces documents disposent d’une forme de matérialité (support papier,
électronique, etc.) qu’il est intéressant d’étudier. Toutefois, nous insisterons ici
sur ses dimensions organisationnelles et ses effets sociaux.
200
[Ollivier, 2001].
amenée, pour diverses raisons (économique, réponse face aux
activistes, évolution des législations et des politiques
publiques, etc.) à jouer un rôle important dans les mécanismes
de régulation et de cohésion sociale. C’est dans ce cadre que
ce sont développés des concepts tels que celui de
« Responsabilité Sociale des Entreprises » ou « d’entreprise
citoyenne ». Pour certains, la RSE témoigne d’une
transformation majeure du rôle des entreprises201 et cristallise
un nouveau mode de régulation économique et social qui serait
principalement assurée par les entreprises ? [Bardelli, 2005].
En réalité, ces observations ont le mérite d’insister sur l’idée
selon laquelle la RSE est une réponse possible aux
dysfonctionnements sociaux actuels en limitant l’intervention
des Etats.
Sur le plan communicationnel, la manifestation la plus
originale de ce mouvement est sans doute, la prolifération des
codes de conduite, chartes éthiques, chartes sur la RSE,
principes d’actions, etc. Actuellement, 98% des grandes
entreprises françaises disposent d’au moins un document
indifféremment intitulé « charte » ou « code de conduite »202,
ce qui laisse penser qu’aucune entreprise ne pourrait
raisonnablement s’abstraire de disposer d’un tel objet. Tout du
moins, les chartes deviennent une forme logique et
linguistique constitutive de l’ossature des pratiques sociales
qui ont trait à l’éthique dans les entreprises. Ainsi, nous
observons une généralisation du discours de l’éthique comme
pratique sociale et professionnelle. Elle est sans doute une
caractéristique de cette « société de l’information » où
l’entreprise devient une figure médiatique importante et où il
existe de multiples injonctions à communiquer (Loi NRE,
bilan social [D’Almeida, Andonova, 2006, p.136]. Dans sa
forme la plus élaborée, ces discours d’engagement peuvent
être considérés comme une forme de gouvernement du social.
Les chartes sont des supports de cette communication
« autoréférentielle » en engageant une conception du devoir
que se donnent les entreprises. Elles sont aussi l’expression
d’un devoir prescrit à soi [D’almeida, 2001, p.118].
L’explosion de ces « discours d’engagements » ne rend pas
forcément l’entreprise plus lisible (en dépit qu’elle devient
plus visible). Elle s’expose davantage en ouvrant une pluralité
de fenêtres sur soi, se donnant ainsi à lire. Mais cette lecture ne
peut résolument être que partielle [De la Broise, 2006, p.43].
L’entreprise est donc un espace codé disposant d’un régime
linguistique particulier, dont les discours « éthiques » tendent à
occuper une place centrale dans leur panoplie discursive.
Ainsi, le regard communicationnel tend à déplacer la
représentation de l’entreprise. Celle-ci est envisagée comme
produisant des biens et services, disposant d’une responsabilité
plus ou moins étendue, et comme énonçant un certain nombre
de discours et de récits203 qui participent à façonner une
représentation particulière du monde.
1.2 Une analyse centrée sur le rôle des objets dans
l’organisation des rapports sociaux
Notre perspective consiste à examiner les modalités de
construction des chartes. Cela consiste à mettre en évidence
o
201
[Vogel, 2006]. Nous faisons ici référence aux différentes évolutions
sociopolitiques qui affectent l’entreprise et les mécanismes de régulation sociale :
crise du modèle de protection social keynésien, affaiblissement des rapports
sociaux, crise de l’interventionnisme étatique, etc.
202
Source Alpha, 2004.
203
[D’Almeida, 2001].
155
156
des procédures, des stratégies, des rapports de pouvoir qui sont
à l’œuvre dans la construction de l’écrit. Notre analyse est
donc centrée sur l’objet. Cela sous-tend d’interroger leur rôle
dans l’organisation des rapports sociaux, sur les réseaux
sociaux qui se forment à partir des instruments, leurs
caractéristiques et propriétés spécifiques, leur matérialité, etc.
La question des instruments appliquée au champ des relations
sociales s’articule autour des effets qu’ils génèrent (effets
propres dans leur autonomie relative et effets politiques des
instruments et les relations de pouvoirs qu’ils organisent).
Quelques chercheurs en SIC ont travaillé sur des
problématiques connexes (D.Carré, C.Loneux, B.Floris, et
P.Chaskiel pour ne citer qu’eux). Si notre perspective
communicationnelle aurait pu consister en une analyse de leur
forme discursive (approche sémiologique, analyse de contenu),
nous privilégions une approche des objets par leurs processus
de production. Les chartes sont des objets de recherche
stimulants, parce que leurs processus de production sont
l’occasion de construction de rapports sociaux. Nous
cherchons donc à étudier ces « actes de communication
socialement élaborés » en focalisant notre attention sur les
effets sociaux sous-jacents à leurs processus de production.
Nous explorons donc en premier lieu la dimension
organisationnelle de l’activité de production. Cela sous-tend
de mettre en exergue des rapports sociaux parfois conflictuels,
à la fois internes et externes au sujet moteur de son
élaboration, la place des individualités dans le processus de
production, les travaux de « coopération » ou de
« coordination » entre les acteurs pour fixer la norme, etc. En
second lieu, nous examinons la dimension « politique ». La
composition du collectif, son organisation, la construction des
réseaux, leurs traces écrites qu’ils produisent, sont autant
d’indices qui éclairent sur le sens de l’action. Ces différentes
phases se situent en amont et en aval des formes physiques de
confrontation. Ainsi, c’est la construction même de l’objet
communicationnel (charte) par un collectif d’acteurs qui doit
faire l’objet de l’interprétation. Cet objet renvoie à des acteurs
« situés » qui sont tantôt des entrepreneurs, tantôt des
syndicalistes, qui mettent en place ou contribuent à
l’élaboration d’une charte qui participent de fait à la
construction du sens de l’activité. En définitive, notre méthode
de recherche ne porte pas sur une analyse de discours et de
contenu qui serait considérée comme source d’information sur
la réalité sociale, mais « prenant ces représentés comme des
constructions sociales, nous mettons en œuvre des méthodes
pour repérer les forces à l’œuvre dans la production des
discours, des textes, accompagnateurs autant qu’auxiliaires de
recompositions organisationnelles » [Delcambre, 2000, p.19].
Au-delà de disposer d’une visée narrative, les chartes ont une
histoire de production. Ces étapes « de fabrication »
constituent des temps de régulation où les acteurs sociaux
échangent. Autrement dit, les chartes sont la construction d’un
discours dont l’enjeu n’est pas tant la représentation, mais
surtout la configuration de l’action et la construction de son
sens [Delcambre, Ibidem.].
2. Etude de cas : la charte de la diversité dans les
entreprises
35 dirigeants de grandes entreprises ont signé le 22 Octobre
2004 une charte qui s’intitule « charte de la diversité dans les
entreprises ». Les entreprises s’engagent à « Rechercher une
diversité au travers des recrutements et de la gestion des
carrières ». L’objectif affiché consiste à mettre en place des
mesures volontaristes pour que l’entreprise reflète les
composantes de la société, notamment en recrutant plus
largement les personnes issues de l’immigration ou des DOM.
Cette charte pose donc la question de l’intégration des
populations issues de l’immigration (en cherchant à pallier
l’incapacité des pouvoirs publics à faire face aux défis que
constituent les politiques d’intégration).
La charte de la diversité est produite à l’initiative de l’Institut
Montaigne204 et plus précisément sous l’égide d’un groupe de
travail composé de deux acteurs : Laurence Méhaignerie et
Yasid Sabeg, lesquels ont produit un rapport (« les oubliés de
l’égalité des chances », 2004) qui dresse un état des lieux
orienté des discriminations dans les entreprises. Ce rapport
formule également une série de propositions pour faire évoluer
le comportement des entreprises et du monde politique sur
cette question. Parmi le panel de suggestions, l’une propose
l’élaboration d’une charte qui serait signée par une grande
partie des entreprises françaises. Le rapport de Y.Sabeg et
L.Méhaignerie fait explicitement la promotion de la charte de
la diversité. Pour autant, son contenu n’était pas encore
formalisé à l’heure de l’écriture du rapport et lors de sa
publication205. Toutefois, la charte est présentée comme une
« action volontaire d’envergure (…) La charte de la diversité
propose aux entreprises publiques et privées de formaliser
leurs actions et résultats pour la promotion et le respect de la
diversité culturelle, ethnique et sociale de l’entreprise (…) elle
pourrait être une première étape vers la définition d’un label
d’inclusivité pour valoriser les entreprises qui mettent en place
des pratiques responsables pour la promotion de la diversité ».
Par ailleurs, il est précisé ; « Pourrait souscrire à cette charte
de la diversité, volontairement, toutes les entreprises de plus
de 100 employés qui s’engageraient à : constater la dimension
pluriethnique de la France, et à cet égard, valoriser et
promouvoir l’équité et le respect de cette diversité dans les
politiques de recrutement, de promotion professionnelle et de
salaires, reconnaître l’égalité entre les Hommes et les Femmes
par une promotion de l’égalité des sexes à travers le
recrutement, la promotion professionnelle et la politique
salariale » (p152). Par ailleurs, le rapport assure également que
cette charte incite à ; « Inclure une clause de non
discrimination pour les embauches, à mérites, compétences ou
talents égaux ». Il est également prévu de « généraliser les
plans de carrière sur une base équitable et prohiber tout
préjudice, préjugé ou oppression et toute forme de
discrimination fondée sur la race, l’ethnicité, la couleur de
peau, la religion, la culture, le sexe, la classe sociale ou
l’orientation sexuelle ». Pour ce faire, il est envisagé de « faire
figurer au bilan social la photographie des 20 à 30 premiers
cadres de l’entreprise ainsi que les actions menées en matière
de diversité et leurs résultats » (p152). Enfin, il est
recommandé à ce que les entreprises « mènent des actions de
sensibilisation et de formation des dirigeants, DRH, et
collaborateurs pour la gestion de la diversité (gestion des
conflits, lutte contre les discriminations, promotion de l’égalité
des chances) pour offrir un climat favorable à la
reconnaissance, au respect et à la dignité de la personne dans
l’entreprise dans sa diversité culturelle, ethnique et religieuse »
(p152).
En définitive, ce rapport constitue une première amorce de la
genèse de l’histoire de cette charte. En effet, il a été présenté
par Yasid Sabeg et Laurence Méhaignerie lors d’une réunion
organisée au sein de l’AFEP (réunion qui rassemblait une
trentaine de chefs d’entreprises du CAC 40). C’est ainsi que le
groupe de travail a élaboré une première version de charte qui
a ensuite été discutée avec quelques dirigeants de grandes
204
L’institut Montaigne est une association composée en grande partie de chefs
d’entreprises, de hauts fonctionnaires, d’universitaires et de représentants de la
société civile. Il se présente comme « un laboratoire d’idées » jouant un « rôle
d’acteur du débat démocratique », notamment à travers l’élaboration de
propositions et de recommandations sur des enjeux de société.
205
En effet, le rapport a été rendu public en Janvier 2004. Or la première version
de charte a été écrite le 1er Mars 2004
156
157
entreprises au sein de l’AFEP206 (Association Française des
Entreprises Privées) qui constitue le lieu de négociation. Cette
charte a donc été discutée directement avec une vingtaine de
chefs d’entreprise, qui ont apporté des commentaires. Ceux-ci
ont conduit le groupe de travail à faire évoluer leurs différents
projets de charte. Au terme de quatre rencontres, la charte a été
stabilisée, signée, puis rendue publique. Cette charte est le
fruit de l’homogénéité d’un groupe social de référence.
Autrement dit, il s’agit d’une production faite par les
employeurs. Les organisations syndicales des travailleurs et les
structures associatives sont exclues de la démarche alors même
que la charte a pour vocation de s’appliquer à des formes
sociales hétérogènes. Elles interviendront dans la stratégie
d’évocation de la charte, où elles sont sollicitées pour soutenir
l’initiative patronale.
Grâce à cette initiative, l’Institut Montaigne, et plus largement
le monde des entreprises, s’est positionné comme un
interlocuteur incontournable pour les instances de
réglementation. D’ailleurs, le gouvernement accorde
publiquement aux entreprises françaises 12 mois pour mettre
en place des dispositifs destinés à lutter contre les
discriminations. En l’absence de progrès en la matière, le
gouvernement
menace
d’intervenir
par
injonctions
réglementaires (Conférence interministérielle, 2005). On est
ici aussi dans ce que nous appelons l’antichambre législative
(l’autorégulation précède la co-régulation). La charte est un
document qui contient plusieurs dispositions censées régir et
guider la conduite des acteurs socio-économiques. Les
préceptes d’actions sont formalisés et inscrits dans un objet, ce
qui permet d’éviter que l’on interroge à tout instant sa
cohérence logique.
3. Principaux enseignements
Nous formulons ici quelques pistes d’analyse. Il faut
davantage les considérer par les questions qu’ils posent ou
provoquent que par les demi-réponses parfois hésitantes qu’ils
esquissent.
o 3.1 L’apport spécifique des sic
Les SIC sont utiles pour comprendre les mutations introduites
par la prolifération de « l’objet charte ». Elles permettent
d’interroger la place de la communication dans les relations
professionnelles, par exemple, en rendant compte des
différentes formes de confrontation. De cette manière, les
relations sociales sont appréhendées comme un mode de
gestion des relations par la discussion. Notre regard
communicationnel nous conduit à penser les relations sociales
comme un espace informationnel et communicationnel au sein
duquel, il y a des discussions entre acteurs. Les résultats de ces
discussions se présentent comme des exigences normatives des
acteurs sociaux pour intégrer l’agenda stratégique des
politiques sociales des entreprises, voire pour intégrer l’espace
politique comme c’est le cas pour la charte de la diversité ou
tel qu’a pu le montrer Catherine Loneux dans sa recherche sur
l’interprofession publicitaire207. Ainsi, le cadre conceptuel que
nous suggérons consiste à cerner les modalités de l’émergence
d’un espace de médiation dans lequel se jouent des rapports de
place en vue d’inscrire une question sociale (les
discriminations) dans l’agenda stratégique des entreprises
(aujourd’hui 250 entreprises signataires) mais également dans
l’agenda médiatique208, et de peser ainsi sur les régulations
étatiques. L’espace communicationnel que nous proposons
d’analyser, est un espace d’échanges et de confrontations
(entre soi) entre différentes interprétations du symbolique.
D’une certaine manière, la question du sens est celle de la
confrontation entre les acteurs. L’espace communicationnel est
alors ce lieu où s’exprime de manière symbolique le pouvoir
(approche processuelle et non situationnelle de l’action). Il
s’agit donc d’un espace de médiation symbolique qui permet
aux acteurs de communiquer entre eux209. Ainsi, il peut être
compris comme le socle de l’espace public dans la mesure où
il est un espace de médiation symbolique spécialement créé
pour l’occasion afin de débattre d’une question sociale. De
fait, la charte est un écrit qui matérialise des relations sociales.
Autour cet objet, des corps sociaux s’organisent et sont
susceptibles de s’affronter. La communication consistera alors
en une production de légitimité, de réinterprétation, voire de
transformation des objets dont nous étudions les conditions.
Dans le cas que nous avons présenté, l’élaboration de la norme
se fait donc en dehors du cadre des médiations traditionnelles
des relations socioprofessionnelles. Ce processus se différencie
donc des formes traditionnelles de confrontation
sociale (négociation collective, etc.). Ainsi, ces normes
« autoproduites » participent à reconfigurer les relations
sociales en affectant en premier lieu l’espace social de
confrontation (négociation à huis clos, sélection aléatoire des
participants à la négociation, contournement possible des
représentants du personnel, dérégulation du cadre
communicationnel des relations sociales, etc.)210. Avec ces
documents, la décision de gestion du social n’est plus le
monopole d’une instance légitime (dialogue social) mais est le
fruit de stratégies d’influences des groupes sociaux en
perpétuelle négociation de places. Nous observons une forme
du gouvernement du social par les normes où la
communication joue un rôle central211. Ces observations nous
autorisent à risquer deux types d’interprétation (que nous
laissons ouverts):
Le premier consiste à considérer la charte comme une sorte de
méta-norme. Elle est un moyen d’objectiver une question
sociale selon des registres d’intelligibilité propres au sujet
moteur de son élaboration.212. Ainsi la charte prend la forme
d’une norme de référence. A partir de ce moment, elle est
vouée au questionnement. Elle est donc susceptible
d’encourager la mobilisation d’autres groupes sociaux.
208
Cette charte a fait l’objet d’une large médiatisation. Elle peut être comprise
comme un objet prétexte pour accéder à l’agenda médiatique en constituant un
évènement digne d’être médiatisé [Huët, 2006].
209
Il est notamment constitué de codes symboliques qui régissent le
fonctionnement du collectif.
210
C.Dupont [1990] montre bien qu’une des spécificités de la négociation
(traditionnelle) est que les stratégies des acteurs sont contraintes par le fait qu’on
ne choisit pas les partenaires de la négociation. Chacun doit finalement composer
avec l’autre, et ce, quels que soient la qualité et l’historique des relations entre les
partenaires
211
La prolifération de ces nouvelles régulations ne peut être comprise qu’à l’aune
des transformations structurelles en cours dans les relations sociales :
déstabilisation de l’équilibre triangulaire des relations sociales (Etat, syndicats,
patronat), affaiblissement généralisé des rapports sociaux, reconfiguration du rôle
de l’Etat (de la fonction d’arbitre à celle « d’incitateur »), accroissement du
pouvoir des entreprises. Tous ces indices laissent penser que le contrat social
global hérité des trente glorieuses est actuellement en interrogation. La
prolifération des chartes en est une illustration concrète.
212
206
L’association réunit 90 grandes entreprises. Elle organise des rencontres entre
les entreprises afin qu’elles échangent sur leurs pratiques respectives Il s’agit
d’un « club d’entreprises » qui cherchent à unifier les revendications portées par
les entrepreneurs notamment sur certaines questions sociales.
207
Catherine Loneux a notamment montré comment des normes éthiques
pouvaient être produites pour réhabiliter la respectabilité d’une profession, et pour
peser sur les régulations publiques [Loneux (C.), 2001].
Il s’agit d’un travail cognitif et normatif de sélection des données pertinentes à
partir d’une simplification du phénomène considéré, opération qui est elle-même
déterminée par des grilles de lecture particulières aux différents acteurs [Muller,
Surel, 1998, p.59]. Dans le cas étudié, cela s’est notamment traduit par la
production de rapports, d’une charte, mais également par l’introduction de
nouveaux termes pour qualifier le fait social (tels que les termes de « minorités
visibles », de « diversité » ou « d’action positive à la française » qui ne sont pas
axiologiquement neutres. En tout état de cause, l’ensemble de cette production
discursive constituent une formulation intelligible de l’implication des entreprises
et est donc une manière de « labelliser le problème dans un sens particulier ».
157
158
Autrement dit, le fait de poser explicitement par écrit des
principes, suscitent un certain engouement dans l’attention
portée à une question donnée, c'est-à-dire que chacun des
partenaires concernés est susceptible de mettre en exergue les
lacunes du texte et fait donc l’objet de discussion par les
groupes sociaux. Ainsi, la charte peut être appréhendée comme
une incitation à la prise en charge politique du problème et
non une stratégie d’évitement d’une solution réglementaire
plus contraignante.
Une seconde lecture est néanmoins envisageable. La charte
produite par un collectif d’entrepreneurs s’apparente à une
sorte de militantisme entrepreneurial. Elle permet aux
entreprises de se prémunir contre toutes accusations de
pratiques discriminatoires (anticipation d’une situation
critique) et témoigne de l’engagement public de l’entreprise
dans cette problématique. Dans un même temps, il s’agit d’une
forme de pression de ces acteurs qui se constituent en lobby
pour anticiper ou faire évoluer la législation dans ce domaine
(vers plus de souplesse et d’autorégulation). Il s’agit à la fois
d’objectiver une problématique sociale qui doit, selon les
milieux patronaux, figurer dans l’agenda politique en utilisant
l’alibi de la bonne foi, du volontarisme, de la légitimité de ce
groupe professionnel à s’autosaisir d’une question sociale et à
s’autoréguler en cherchant à terme, à anticiper ou à prévenir
les intentions gouvernementales213.
o 3.2 Chartes : un discours d’engagement ?
Dans les perspectives ouvertes par R. Dulong [1993]214, nous
pouvons conférer aux chartes la gravité d’une promesse. Son
avenir est profondément incertain. La promesse « tenue » est
dépendante d’une série de conditions implicites et explicites
(situation économique, contexte organisationnel, rapport de
force favorable, etc.). Ainsi, la promesse est un engagement
moral, verbal ou écrit, qui implique la personne et/ou le
collectif. En droit civil, cela désigne « un engagement à
contracter ou accomplir ». La promesse suppose donc un
bénéficiaire et inscrit l’objet de l’entendement dans le futur
(elle engage les acteurs dans le futur)215. Ainsi, si la charte
constitue une forme de « promesse », son accomplissement est
également tributaire des contributions respectives des acteurs
sociaux impliqués. La promesse implique donc une forme de
réciprocité, chacun s’engageant à maintenir la permanence du
monde social et à tenir au courant l’autre des éventuelles
modifications des termes de la promesse (les objectifs peuvent
être réévalués). En tout état de cause, l’action de promettre
suppose « un engagement portant sur la durée qui l’en sépare :
le moment de son énonciation et celui de son
accomplissement » [Ibidem].
Ainsi, comme nous pouvons le voir dans notre étude de cas, la
charte représente un ensemble d’intentions d’un groupe social
(les chefs d’entreprises) à l’égard de corps sociaux hétérogènes
(salariés, citoyens issus de l’immigration, association,
syndicats, Etat, etc.). La particularité de cette promesse est son
caractère unilatéral. L’officialisation de la charte constitue le
« moment décisif de l’engagement » et qu’un moment futur est
prévu pour faire un point sur le respect des engagements. Dès
lors, chacun s’engage à maintenir le degré de certitude dans
lequel « l’état des lieux » a été planifié. Là est sans doute une
des principales différences par rapport aux accords sociaux
négociés (promesse multilatérale). Pour les chartes, le futur est
213
C’est notamment l’interprétation faite par C.Loneux dans son étude sur
l’interprofession publicitaire [op.cit.]
214
Il développe une approche sociologique du temps et emprunte à d’autres
champs théoriques tels que la phénémonologie du rapport social, la pragmatique
des actes de langage et aux philosophies qui les inspirent.
215
Pour R. Dulong, « la constitution du futur se fait sur un accord tacite sur les
conditions de réalisation de ce futur. On a une sorte de contrat mutuel qui
engagent les participants à maintenir la prévisibilité du monde » (Ibidem, p.225).
indéterminé, et de fait, les partenaires (ici les partenaires
sociaux et l’Etat) ne disposent d’aucune responsabilité dans la
détermination du futur. A l’inverse, dans l’accord, sont
planifiés des « temps de renégociations » censés évaluer
l’accomplissement de la promesse, et le cas échéant,
d’apporter des actions correctives, ainsi qu’une actualisation
de la responsabilité des contractants. En définitive, dans les
perspectives ouvertes par R.Dulong [Ibidem], chartes et
accords sont le témoignage d’une résolution collective, et en
ce sens, cela peut leur conférer la gravité d’une promesse. Dès
lors, cela met en jeu la responsabilité des acteurs pour
maintenir (et non transformer) le cadre social nécessaire à sa
prévisibilité pour rendre plausible le projet (stabilisation du
cadre institutionnel, de la situation économique et social, de
l’engagement politique, etc.). Autrement dit, une promesse
implique que les acteurs s’engagent (en dépit de leurs propres
contingences) à aller au bout de ce qu’ils ont commencé.
« Toute initiative est une intention de faire et, à ce titre, un
engagement à faire, donc une promesse que je fais
silencieusement à moi-même et tacitement à autrui, dans la
mesure où celui-ci en est, sinon le bénéficiaire, du moins le
témoin » [Ricoeur, cité par Dulong, Ibidem, p.230]. Or,
l’action de promettre engendre une relation de confiance.
« Faire confiance, c’est risquer certains aspects de son avenir
en pariant sur la loyauté de la personne à laquelle on fait
confiance » [Baier, p.287]. Or une partie de cette confiance se
fonde sur l’objet « charte » pour ce qu’il représente. Il
constitue une barrière symbolique parce que c’est justement,
une forme de promesse. Celle-ci met en jeu une pluralité
d’acteurs (pouvoirs publics, société civile, médias, etc.) qui en
deviennent alors les témoins. Comme le note A. Stanziani
[2003] « la littérature sur la confiance, malgré des différences
importantes par ailleurs, semblent partager au moins un
acquis : confiance et dispositions légales sont inversement
liées. Plus détaillées sont les dispositions légales et les
précisions dans les contrats, et moins important est le rôle de la
confiance en tant que forme de coordination des marchés ». La
notion de confiance paraît donc être utile à mobiliser dans la
mesure où il s’agit de comprendre comment un collectif met en
place un objet communicationnel pour légitimer ses actions et
produire un effet de preuve alors même qu’on est ici dans
l’ordre de la promesse. Cette argumentation éthique constitue
vraisemblablement un support du discours de légitimation de
l’entreprise et agit sur le plan de la communication symbolique
et non celui de la communication fonctionnelle [Huët, ibidem].
3.3 Les chartes comme support de la prise de parole des
acteurs
Le développement des chartes cristallise l’émergence d’une
pratique contractuelle différente des formes de régulation
traditionnelles (contrat, négociation collective). Cette pratique
émerge dans un contexte de vide juridique (absence de
reconnaissance juridique de la charte). En ce sens, nous
pouvons formuler l’hypothèse selon laquelle, il s’agit ici d’une
forme de médiation sociale qui est destinée à légitimer une
nouvelle forme de compromis social sous l’égide du
management et indépendamment de la négociation avec les
syndicats tel que B.Floris le présente à partir de l’analyse de la
communication managériale [P.132]. En tout état de cause, le
modèle « charte » se différencie du modèle « accord »
notamment au niveau du cadre communicationnel. L’analyse
de la production de la charte de la diversité montre comment le
processus communicationnel affecte le cadre institutionnel des
relations sociales et modifie les pratiques instituées. L’enjeu
concerne donc l’accès à la parole des salariés et de leurs
représentants216, dans la définition de normes sociales. Or, les
o
216
Dans le cas présenté, ils sont exclus du processus.
158
159
chartes et accords sont des supports particuliers de la prise de
parole des acteurs. Le passage de l’accord à la charte implique
le passage d’un régime démocratique à un autre : l’un est
proche de la démocratie représentative (accord) alors que
l’autre s’apparente davantage à du bricolage, de l’aléatoire
(selon la préférence des uns et des autres) et n’exige pas
nécessairement la confrontation.
En définitive, la prolifération des chartes implique
l’émergence de nouvelles formes de mobilisation collective
qui vont poser un nouveau rapport de force, souvent en dehors
même de l’entreprise. Dès lors, cette question se situe à la
croisée de celles de communication et de l’éthique, dans la
mesure où nous interrogeons les conditions d’exercice de la
démocratie sociale dans le monde économique. A l’instar de la
mise en place de comités éthiques, nous pourrions avancer
l’idée selon laquelle « l’institutionnalisation de lieux de
discussion n’a pas qu’un intérêt prudentiel mais une portée
éthique véritable, même s’il est clair que s’en tenir à des
pratiques discursives ne suffit pas à enrayer des logiques
déshumanisantes car les meilleurs arguments sont sans force
s’ils restent en suspens dans le ciel des idées » [Langlois,
1996, p.263]. Il reste à voir les conditions d’exercice de ce
dialogue.
Conclusion
En définitive, le positionnement théorique que nous proposons
consiste à appréhender la négociation sociale comme une
forme de communication propre au dialogue social. Elle est
intégrée dans une histoire non linéaire des relations, des
interactions entre acteurs, des rapports de force, des
procédures de détermination, des lieux incontournables de
discussion, des opérations de coordination voire de
coopération plus ou moins organisée. Ce faisant, nous ne
travaillons pas directement sur l’impact de ces normes non
techniques sur le travail. En revanche, l’objectif consiste à
éclairer le processus de fixation de la norme, dans l’entreprise,
mais aussi hors de l’entreprise dans l’espace politique (charte
de la diversité), ce qui nous amène à repenser les frontières
entre les domaines public et privé. Penser cette société de
l’information dont les TIC ne sont qu’un « instrument
actuellement structurant », exige de penser en premier lieu les
modes de régulation sociale de l’activité pour mesurer les
changements à venir. Le champ des communications
organisationnelles disposent de ressources théoriques
stimulantes pour rendre intelligibles les mécanismes qui
produisent des rapports sociaux dans la production des objets.
Nous en avons présenté ici quelques perspectives que notre
collectif scientifique pourrait investir.
Bibliographie
Baier (A.C.), « Confiance », in Canto-Sperber (M.) (Dir.),
Dictionnaire d’éthique et de philosophie morale, Paris, PUF,
1996, pp.283-288.
Bardelli (P.), « Nouveau Monde, Nouvelle régulation
sociale », in Revue Internationale sur le travail et la Société,
Vol.3, n°2, Octobre 2005, pp.728-755.
D’Almeida (N.) et Andonova (Y.), « La communication des
organisations », in Olivesi (S.) (Dir.), Sciences de
l’Information et de la Communication. Objets, savoirs,
discipline, Grenoble, PUG, 2006, pp.129-143.
D’Almeida (N.), Les promesses de la communication, Paris,
PUF, 2001.
Delcambre (P.), Communications organisationnelles. Objets,
pratiques, dispositifs, Rennes, PUR, 2000.
Dulong (R.), « La constitution du futur dans le présent des
interactions », in Ladrière (P.), Pharo (P.) et Quéré (L.) (Dir.),
Théorie de l’action. Le sujet pratique en débat, Paris, CNRS
Editions, 1993, pp.223-234.
Dupont (C.), La négociation : conduite, théorie, applications,
Paris, Dalloz, 1990.
Floris (B.), « Médiations symboliques et communication
d’organisation dans les relations socioprofessionnelles »,
Revue Communication et Organisation, n°11, « Négociation et
médiation dans l’entreprise », Bordeaux, Université Michel de
Montaigne Bordeaux III, 1er Semestre 1997, pp.119-137.
Huët (R.), « Les chartes sociales dans les organisations », in
De la Broise (P.), Lamarche (T.), Responsabilité sociale : vers
une nouvelle communication des entreprises ?, Lille,
Septentrion, 2006.
Karpick (L.), « Préface », in Mangematin (V.) et Thuderoz (C.)
(Dir.), Des mondes de confiance. Un concept à l’épreuve de la
réalité sociale, Paris, CNRS Editions, 2003.
Langlois (A.), « Comités d’éthique », in Canto-Sperber (M.)
(Dir.), Dictionnaire d’éthique et de philosophie morale, Paris,
PUF, 1996, pp.260-263.
Loneux (C.), « Les chartes éthiques comme outils de
communication institutionnelle », in Delcambre (P.) (Dir.),
Communications organisationnelles, objets, pratiques et
dispositifs, Rennes, PUR, 2000, pp.122-148.
Muller (P.), Surel (Y.), L’analyse des politiques publiques,
Paris, Montchrestien, 1998.
Stanziani (A.), « Qualité des denrées alimentaires et fraude
commerciale en France, 1871-1905 », in Mangematin (V.) et
Thuderoz (C.) (Dir.), Des mondes de confiance. Un concept à
l’épreuve de la réalité sociale, Paris, CNRS Editions, 2003.
Vogel (D.), « Des entreprises responsables ? Les limites de la
vertu », Les grands dossiers des Sciences Humaines, n°2,
« Moraliser le capitalisme ? »Mars-Avril 2006, pp.46-49.
Wolton (D.), « Information et Communication : dix chantiers
scientifiques, culturels et politiques », Revue Hermès, n°38,
« Les Sciences de l’Information et de la Communication.
Savoirs et Pouvoirs », Grenoble, PUG, 2006, pp.245-257.
159
160
Reconsidérer la notion d’usage des TIC dans les organisatione :
une approche en termes « d’enaction ».
Anthony Hussenot
Groupe de Recherche en Droit Economie et Gestion
C.N.R.S / Université de Nice Sophia-Antipolis
[email protected]
Résumé : La notion d’usage des technologies de l’information revêt aujourd’hui un sens complexe dans lequel se mêlent les pratiques mais aussi
des déterminants sociologiques ou psychologiques. Le problème réside dans une possible représentation des usages et des usagers dépassant les
pratiques observables. En nous appuyant sur la théorie de la structuration (Giddens, 1984), sur les apports de Weick (1979, 1990, 1995) ainsi que
sur les travaux d’Orlikowski (1992, 2000), nous proposons la notion d’ « enaction » pour appréhender en partie la complexité des usagers. Dans
cette perspective, les structures, les actions et l’outil TIC entrent dans une relation récursive qu’il est possible d’articuler. Le modèle
d’ « enaction » proposé permet alors de mettre en évidence les principaux déterminants de la structure, de l’outil et de l’action. Sur la base de ce
modèle, il est possible d’envisager une analyse renouvelée des usages des outils TIC.
Mots clefs : usages, théorie de la structuration, « enaction », appropriation, TIC.
INTRODUCTION
Usages, usagers, appropriation des technologies de
l’information… Nombreux sont les concepts employés pour
décrire la relation qu’entretient un individu avec ses outils
TIC. Pourtant, si nous tentons de donner un contenu
analytique à ces concepts, nous prenons conscience du
processus social complexe qui s’opère. Le caractère évolutif,
les possibles personnalisations, leurs présences quotidiennes
entraînent une relation intime entre les outils TIC et les
usagers. Les concepts employés pour caractériser les
« usages » ne semblent alors plus suffire pour retranscrire ces
phénomènes. Même si les notions d’usage et d’appropriation
ont connu des évolutions, il est difficile de les instrumentaliser
et de les articuler.
La première partie sera l’occasion de revenir sur cette
évolution sémantique et l’impasse dans laquelle se trouve
aujourd’hui la sociologie des usages face à ces concepts. Pour
dépasser les limites et répondre à une partie des
questionnements liés aux usages, nous proposons, dans une
seconde partie, de mobiliser la littérature managériale et
d’analyser les usagers à travers la notion d’ « enaction ». Cette
notion s’appuie sur la volonté de considérer la relation de
l’usager avec l’outil au travers des actions, des représentations
des structures et de l’outil TIC. Les fondements de cette
relation se trouvent alors dans la théorie de la structuration de
Giddens (1984), dans la pensée de Weick (1979, 1990, 1995)
et dans le modèle structurationniste de la technologie de
Orlikowski (1992, 1996, 2000). L’ « enaction » ainsi
présentée, permet d’appréhender la relation de l’individu avec
la technologie. Sur la base de l’analyse d’éléments observables
et de règles et ressources instanciées par l’individu, il est
possible de caractériser les usagers des outils TIC dans les
organisations.
1. USAGES,
ANTINOMIQUES
PRATIQUES
ET
APPROPRIATION
:
SYNONYMES
OU
?
Alors que les notions de pratique ou d’appropriation sont
traitées de façon relativement homogène dans la littérature
sociologique et managériale, la notion d’usage est bien plus
embarrassante pour les chercheurs car elle porte en son sein
une part de d’ambigüité qu’il convient d’expliciter avant de
proposer une alternative.
•
Usages et usages
Une brève relecture des définitions de la notion d’usage dans
la littérature fait apparaître deux acceptions différentes selon
les périodes. Durant la période 1980 – 2000, le concept
d’usage porte son attention sur l’individu, sur l’utilisation
qu’il fait de l’outil. C’est ainsi que De Certeau (1980) définit
l’usage comme des « opérations d’emploi – ou, plutôt, de
réemploi…Je leur donne le nom d’usages, bien que le mot
désigne le plus souvent des procédures stéréotypées reçues et
reproduites dans un groupe, ses « us et coutume ». »
Néanmoins, De Certeau (1980) note dès cette époque toute la
complexité du mot usage : « Le problème tient dans
l’ambiguïté du mot, car, dans ces « usages », il s’agit
précisément de reconnaître des « actions » (au sens militaire
du mot) qui ont leur formalité et leur inventivité propres et qui
organisent en sourdine le travail fourmilier de la
consommation ». Cette première acception aura la vie longue.
En 1993, pour Jouet : « l’usage (…) renvoie à la simple
utilisation » et dans le même esprit, selon Méadel et Proulx
(1993) : « parler de la notion d’usage [c’est] déjà s’inscrire
dans une problématique sociologique traditionnelle [et]
braquer le projecteur vers l’individu ». Enfin, Lacroix en 1994
définissait les usages sociaux comme : « des modes
d’utilisation se manifestant avec suffisamment de récurrence
et sous la forme d’habitudes suffisamment intégrées dans la
quotidienneté ». Dans cette acception, usage et pratiques ont
des définitions proches sinon confondues.
Et c’est peut-être sur ce constat qu’à partir des années 2000,
on observe une modification dans la littérature sociologique de
la définition de l’usage qui s’élargie aux facteurs
psychologiques, cognitifs ou sociologiques. Ainsi, en 2002,
Breton et Proulx définissent l’usage comme : « un phénomène
complexe qui se traduit par l'action d'une série de médiations
enchevêtrées entre les acteurs humains et les dispositifs
techniques ». Pour aller plus loin dans l’analyse, Docq et
Daele (2001) ainsi que Bachelet (2004), considèrent l’usage
comme un ensemble de pratiques, une façon particulière
d’utiliser quelque chose, un ensemble de règles partagées
socialement par un groupe de référence et construite dans le
temps. Même si cette nouvelle acception dépasse le simple
cumul des pratiques et ouvre la voie à de nouveaux champs de
lecture des usages, elle pose néanmoins un certain nombre de
question. Proulx (2005) admet la difficulté à représenter ces
phénomènes et préfère définir les usages sociaux comme des
« patterns d’usages d’individus ou de collectifs d’individus
(strates, catégories, classes) relativement stabilisés à l’échelle
d’ensembles sociaux plus larges (groupes, communautés,
sociétés, civilisations) ».
Cette seconde acception de l’usage conduit le chercheur à se
questionner sur les possibilités d’identifier les usages et les
usagers dans toutes leurs complexités et leurs évolutions dans
le temps. Quels facteurs ? Quelle méthodologie ? Devant
l’incapacité de cette notion à répondre à ces problèmes
cruciaux, nous préférons nous ranger au côté de la définition
de Proulx (2005) et limiter l’approche des usages à des faits
observables et mesurables. En cela, nous redonnons aux
usages son sens premier ou plutôt son sens populaire. Lorsque
161
les médias parlent d’usage, ils entendent ce que font les
individus avec un objet et comment ils le font à un moment
précis.
Les
déterminants
psychologiques
ou
psychosociologiques ne sont jamais évoqués.
Sur les bases de cette définition, qui a l’avantage de son
pragmatisme mais qui est limitée dans son analyse, il est aisé
d’introduire le concept de pratiques. Les pratiques, dans notre
acception, sont des actions spécifiques répétées. Les pratiques
renvoient à des actes qui s’inscrivent dans un champ plus
large. Les usages sont alors composés par des ensembles de
pratiques.
L’appropriation : une dynamique collective
Avant de traiter ouvertement de l’ « enaction », il convient de
lever le voile sur la notion d’appropriation afin de situer la
dynamique dans laquelle nous plaçons l’ « enaction ». D’un
emploi courant, l’appropriation est à l’image de la notion
d’usage et revêt des formes différentes selon les auteurs qui
s’en saisissent. Pour DeSanctis et Poole (1994) : « le concept
d’appropriation inclut les intentions voulues ou les
significations que les groupes assignent à la technologie
qu’ils utilisent », tandis que pour Millerand (2002)
« s’approprier, c’est précisément choisir parmi un ensemble
de possibles pour se réinventer ». Enfin, De Vaujany (2001)
préfère parler de trajectoires appropriatives qu’il définit
comme
un
« enchaînement
régulier
d’archétypes
technologiques ». Ces définitions concèdent toutes à
l’appropriation un caractère mouvant, évolutif. Dans cette
perspective, nous considérons l’appropriation des solutions
TIC comme un processus itératif qui se caractérise par sa
potentielle infinitude. L’appropriation n’est pas un acquis
social ou individuel. Sa dimension itérative peut conduire à
une désappropriation ou à un abandon de l’outil TIC. Dans
une
perspective
organisationnelle,
les
processus
d’appropriation sont éminemment collectifs.
2 - ELÉMENTS
D’ « ENACTION »
THÉORIQUES
POUR
UNE
APPROCHE
EN
TERMES
Face aux limites posées par le concept d’usage, nous
proposons le concept d’« enaction ». L’« enaction » peut se
définir comme la relation intime que l’individu entretient avec
l’outil TIC. Cette notion renvoie au processus d’interaction
entre l’outil, les pratiques et la structure. L’ « enaction » n’est
pas l’appropriation mais une photographie de l’usager dans un
processus itératif d’appropriation collective.
De Giddens à Orlikowski
La théorie de la structuration de Giddens (1984),
tient aujourd’hui une place prépondérante dans l’étude sur les
usages des TIC. Pour autant, sa mobilisation dans la littérature
sociologique ou managériale reste peu répandue. L’étude des
usagers dans la perspective structurationniste renvoie au
présupposé que les actions, les outils (sous formes de
modalités) et les structures ont la même importance dans les
phénomènes de structuration. Partant des apports de Giddens
(1984), les auteurs structurationnistes (Barley, 1986 ;
Orlikowski, 1992, 2000 ; De Sanctis et Poole, 1994, Swanson
et Ramiller, 1997 ; Groleau, 2000) considèrent que la
technologie peut être considérée comme une structure sociale,
possédant ses propres propriétés structurelles, produites et
reproduites par le mécanisme de la structuration. La théorie de
la structuration permet, au moyen du modèle de production et
de reproduction des routines sociales, d’appréhender les
usagers des outils TIC.
De l’ « enactment » à l’ « enaction »
Pour Weick (1990) et Orlikowski (2000), les individus
« enactent » la technologie, et en l’utilisant dans leurs actions
sociales, contribuent à l’actualiser par une relation récursive
de la technologie avec les actions et la structure. Dans la
terminologie d’Orlikowski (1992), cette notion prend le terme
de « dualité de la technologie ». La technologie est le produit
de l’action humaine et est physiquement construite par les
acteurs dans un contexte social particulier. La technologie est
alors « enactée » par les acteurs. L’appropriation de la
technologie par les acteurs est alors un processus
d’« enactement » au sens de Weick (1979)217. La notion
d’ « enactment » peut se traduire par la mise en actes de la
technologie. L’ « enactment » se définit comme le processus
de création de notre réalité. La théorie proposée par Weick met
en avant le rôle que nous jouons dans la création de notre
réalité par l’interprétation de notre monde. L’« enactment »
permet ainsi de réduire l’équivocité du monde (réduction des
possibles face à une situation complexe) par l’interprétation
que nous faisons de cette situation. En 1995, Weick introduit
la notion de « sensemaking ». Face à une situation donnée, les
individus doivent construire du sens pour résoudre ce
problème : « les problèmes ne se présentent pas d’eux-mêmes
aux professionnels comme des données. Ils doivent être
construits à partir des matériaux de situations problématiques
qui sont curieux, troublants et incertains… Il doit donner du
sens à une situation incertaine qui initialement n’en a pas »
(Weick, 1995). Les individus doivent alors réduire l’équivocité
d’une situation problématique et créer du sens pour résoudre
un problème. Par le processus d’ « enactment », les individus
réduisent cette équivocité en construisant un cadre cohérent de
la réalité dans lequel l’outil, les actions et la structure (qui
existe, pour Giddens uniquement dans la mémoire des
individus) ont une relation récursive et réflexive.
Orlikowski (2000) propose alors trois formes d’« enactment »
de la technologie. « inertia » (les acteurs retiennent leurs
anciennes habitudes d’utilisation) ; « application » (les acteurs
choisissent d’utiliser une nouvelle technologie pour augmenter
et redéfinir leur compétences) ; et « change » (les acteurs
choisissent d’utiliser une nouvelle technologie pour modifier
leurs pratiques). Cependant, Orlikowski (2000) relativise cette
typologie d’« enactement » car les usagers changent de
technologies et font évoluer leurs usages dans le temps. Les
travaux d’Orlikowski se déroulèrent au début des années 90 et
visaient à étudier les usages du logiciel Lotus Note. Les
résultats ont conduit à identifier une forme d’ « enactment »
par population. Dans notre perspective d’appropriation, nous
pensons que les acteurs font évoluer leur forme
d’ « enactment » au fur et à mesure de l’évolution des usages
de l’outil TIC. C’est pourquoi nous préférons la notion
d’ « enaction », qui se veut moins ambitieuse que
l’ « enactment » mais qui semble davantage applicable.
L’ « enaction », sur la base du concept d’ « enactment », est
alors une photographie du processus d’ « enactment » et non
une retranscription du processsus.
Sur la base du modèle proposé par Orlikowski (2000),
nous intégrons alors deux catégories de propriétés
structurelles : celle de la technologie et celle de l’organisation.
Dans la perspective de Giddens (1984), les propriétés
structurelles, composées de règles et ressources instanciées,
peuvent être analysées à travers trois dimensions : la
signification, la domination et la légitimation. Les modalités
renferment, quant à elles toutes les spécificités de l’outil
(facilitateurs), ce qui encadre les pratiques (normes) et enfin
l’interprétation de la technologie par les individus (schémas
interprétatifs). Le dernier élément du modèle caractérise les
actions situées et récurrentes des individus.
217
Dans notre perspective, l’appropriation se définit pour les acteurs comme une
évolution constante de leur forme d’ « enaction » dans lequel des éléments
organisationnels permettent la dynamique d’appropriation.
162
Figure 1 : Modèle d’ « enaction » de la technologie (inspiré
d’Orlikowski (2000)).
Le modèle de l’ « enaction » permet alors de caractériser
l’usager en intégrant les grandes composantes de sa relation
avec l’outil et son environnement. Néanmoins, son
instrumentation reste à être définie en fonction du contexte et
il serait hasardeux de présenter une solution toute faite. De
plus, si l’ « enaction » permet de représenter les usagers à un
instant précis de leur processus d’appropriation, il nous parait
fondamental d’inscrire l’étude des usagers dans le temps.
L’évolution continue des acteurs et des outils exclue une
analyse strictement statique. Dès lors, considérer l’usager,
c’est l’appréhender dans sa dynamique d’appropriation. Dans
une perspective organisationnelle, il s’agit de caractériser
l’individualisme complexe qui sous tend le modèle, en
déterminant les éléments sociaux qui conduisent les groupes à
adopter – adapter218 un outil TIC.
CONCLUSION
Les problèmes posés par la notion d’usage depuis les années
2000 demandent une nouvelle instrumentation de cette notion
ou un retour en arrière dans son approche. Nous pensons que
redonner à la notion d’usage son sens populaire permet de se
libérer de l’ambigüité que cette notion revêt dans la littérature
depuis quelques années. Pour autant, il ne s’agit pas de se
soustraire des questions essentielles que sa forme actuelle
soulève. La notion d’ « enactment » introduite par Orlikowski
(2000) semble apporter des premiers éléments de réponse. En
replaçant la notion d’usage dans un cadre sociologique général
que représente la théorie de la structuration et en mobilisant la
notion d’ « enactment » de Weick (1979), nous pouvons
construire un cadre pour représenter les usagers dans les
organisations. Le processus d’ « enactment » entraîne les
individus dans la construction d’un cadre cohérent de la
réalité. La mise en évidence de la relation que l’usager
entretient avec les outils TIC devient alors possible. En
substituant la notion d’ « enactment » à la notion
d’ « enaction », nous proposons un concept capable de
photographier les usagers dans leur processus d’appropriation.
Pour autant, cette approche ne résout pas tous les problèmes.
Une valorisation empirique (Hussenot, 2006) de la notion
d’ « enaction » devra évaluer les forces et les faiblesses de
cette approche.
BIBLIOGRAPHIE
218
Nous faisons ici référence à la théorie de la traduction (Callon, 1986 ; Latour,
1991) qui permet de comprendre en partie les dynamiques d’appropriation d’outil
TIC évolutifs dans une perspective itérative (Hussenot, 2006). Dans cette
perspective, l’outil TIC est considéré comme étant une innovation en devenir pour
le groupe.
Bachelet C. 2004. « Usages des TIC dans les organisations, une notion
à revisiter? », Actes de colloque de l’AIM, Evry.
Barley S.R. 1986. “Technology as an occasion for structuring:
Evidence from observation of CT scanners and the social order of
radiology departments”, Administrative Science Quaterly, n°31, p. 78108.
Breton P. et Proulx S. 2002. Usages des Technologies de
l'Information et de la Communication, L'explosion de la
communication à l'aube du XXI ème siècle, Editions la découverte.
Chambat P. 1994. “Usages des TIC: évolution des problématiques ».
Technologies de l'information et société, n° 6, vol.3, p.249-270.
De Vaujany FX. 2001. "Gérer l'innovation sociale à l'usage des
technologies de l'information: une contribution structurationniste."
Thèse de Doctorat. Lyon 3, Jean Moulin.
DeCerteau M. 1980. L'invention du quotidien 1. Arts de faire. Paris:
Gallimard.
DeSanctis G. et Poole S. M. 1994."Capturing the Complexity in
Advanced Technology Use: Adaptative Structuration Theory,"
Organization Science, vol. 5, n° 2, p. 121-147.
Docq F. et Deale A. 2001. “Uses of ICT tools for CSCL: how do
student make as their's own the designed environment?”, Actes de
colloque EURO CSCL, Maastrich.
Giddens A. 1984. The constitution of society. Berkeley, California.
University of Canada Press.
Groleau C. 2000. « La théorie de la structuration appliquée aux
organisations : le cas des études sur la technologie », in Autissier D. et
Wacheux F., Structuration et Management des organisations,
l’Harmattan, Paris.
Hussenot, A. 2006. “Appropriation of Information Technologies and
empirical reading of appropriation paths: some elements for a
methodology”. Actes du XXIIème Colloque International EGOS,
Bergen, Norvège.
Jouet J. 1993. «Pratiques de communication et figures de la
médiation », Réseaux, n° 60: 99-120.
Lacroix J. 1994. « Entrez dans l'univers merveilleux de Videoway », in
Lacroix J. et Tremblay. G., De la télématique aux autoroutes
électroniques. Le grand projet reconduit, Presses Universitaires de
Grenoble, Grenoble.
Meadel C. et Proulx S. 1993. “L'usager en chiffres, l'usager en actes”.
Actes de colloque : 100 ans de sociologie, Paris.
Millerand F. 2002. « La dimension cognitive de l’appropriation des
artefacts communicationnels ». In F. Jauréguiberry, et Proulx S.
Internet: nouvel espace citoyen, L’Harmattan, Paris.
Orlikowski W.J. 1992. «The Duality of Technology: Rethinking the
concept of Technology in Organizations”, Organization Science, vol.
3, n°3.
Orlikowski W.J. 1996. «Improving Organizational transformation
Over Time: a Situated Change Perspective, Information Systems
Research, vol.7, n°1.
Orlikowski W.J. 2000. « Using technology and Constituting
structures: a pratice lens for studying technology in organizations.”
Organization Science, vol. 4, n°4, p.404-428.
Proulx S. 2005. “Modèle d'analyse des usages des TIC”. Journée de
recherche Expérimentation et usages des TIC et de l'Internet, Aix en
Provence.
Swanson E. B. et Ramiller N. C. 1997. "The Organizing vision in
Information systems Innovation", Organization Science, vol. 8, n°5, p.
458 - 474.
Weick K. 1990. “Technology as equivoque: sensemaking in new
technologies”, in Goodman P. et Proull L., Technology and
organization.
Weick K. E. 1995. Sense making in organizations, Ed. Sage.
Weick K.E. 1979. The social Psychology of Organizing, AddisonWesley, Reading, MA.
163
« Le contrat en action sociale : un nouvel objet technique
impacts sur les pratiques professionnelles, incidences sur les formes
et les processus organisationnels »
Roland JANVIER
CERSIC-ERELLIF
[email protected]
Dans le champ de l’action sociale, la relation d’aide a
rarement été fondée sur un rapport de type contractuel mais
plutôt sur un lien de quasi subordination entre l’intervenant et
le bénéficiaire. L’obligation, récemment légiférée, de conclure
un contrat de séjour avec toute personne accompagnée,
introduit un nouvel objet au cœur de l’action.
L’article L.311-4 du Code de l'Action Sociale et des
Familles déclare219 :
« Un contrat de séjour est conclu ou un document
individuel de prise en charge est élaboré avec la participation
de la personne accueillie ou de son représentant légal. Ce
contrat ou document définit les objectifs et la nature de la
prise en charge ou de l'accompagnement dans le respect des
principes déontologiques et éthiques, des recommandations de
bonnes
pratiques
professionnelles
et
du
projet
d'établissement… »
Le décret n° 2004-1274 du 26 novembre 2004 relatif au
contrat de séjour ou document individuel de prise en charge
précise :
« III. - Le contrat de séjour ou le document individuel de
prise en charge est établi lors de l'admission et remis à
chaque personne et, le cas échéant, à son représentant légal,
au plus tard dans les quinze jours qui suivent l'admission. Le
contrat est signé dans le mois qui suit l'admission. La
participation de la personne admise et, si nécessaire, de sa
famille ou de son représentant légal est obligatoirement
requise pour l'établissement du contrat ou document, à peine
de nullité de celui-ci. Le document individuel mentionne le
nom des personnes participant à son élaboration conjointe.
L'avis du mineur doit être recueilli.
Pour la signature du contrat, la personne accueillie ou
son représentant légal peut être accompagnée de la personne
de son choix.
IV. - Le contrat de séjour ou le document individuel de
prise en charge est établi pour la durée qu'il fixe. Il prévoit les
conditions et les modalités de sa résiliation ou de sa révision
ou de la cessation des mesures qu'il contient.
V. - Le contrat de séjour comporte :
1° La définition avec l'usager ou son représentant légal
des objectifs de la prise en charge ;
2° La mention des prestations d'action sociale ou médicosociale, éducatives, pédagogiques, de soins et thérapeutiques,
de soutien ou d'accompagnement les plus adaptées qui
peuvent être mises en oeuvre dès la signature du contrat dans
l'attente de l'avenant mentionné au septième alinéa du présent
article ;
3° La description des conditions de séjour et d'accueil ;
4° Selon la catégorie de prise en charge concernée, les
conditions de la participation financière du bénéficiaire ou de
facturation,
y
compris
en
cas
d'absence
ou
d'hospitalisation… »
Nous constatons que le législateur a prévu l’instauration
d’un véritable contrat, opposable en droit, comme préalable et
support de la relation d’aide développée dans le champ de
l’action sociale et médico-sociale220. Historiquement, c’est un
219
Introduit par la loi 2002-2 du 2 janvier 2002 rénovant l’action sociale et
médico-sociale.
220
Le législateur a prévu des dérogations au contrat de séjour : en l’absence de
fait sans réel précédent. Depuis 1988, le versement du Revenu
Minimum d’Insertion est assorti de la conclusion d’un contrat
d’insertion, mais ce document n’a jamais été clairement doté
d’un véritable statut juridique.
Il nous est donc utile d’envisager, sous l’angle des
sciences de l’information et de la communication, ce que
représente l’émergence de ce nouvel objet dans le dispositif
institutionnel des établissements et services sociaux et médicosociaux.
Avant d’aller plus loin, une question doit être posée : Cet
objet peut-il être envisagé comme un dispositif
communicationnel ?
LE CONTRAT : UN DISPOSITIF
COMMUNICATIONNEL
Pour y répondre, nous pouvons nous appuyer sur les
travaux de Jacques Perriault (1989) qui assigne cinq fonctions
aux « machines à communiquer » : une fonction de simulation,
une fonction discursive, une fonction économique, une
fonction d’organisation des rapports sociaux et une fonction
régulatrice.
•
Une fonction de simulation :
Le contrat est un simulacre qui anticipe l’action, il donne
une « forme » à l’action par une mise en mots, la construction
d’une trace. Il ne dit pas « l’action », il la désigne, la suppose,
la projette. Il ne décrit pas ce qui sera fait mais il énonce
l’intention de chacun des co-contractants sur ce qui est
envisagé, les attentes, les besoins exprimés, les réponses
jugées pertinentes.
Le contrat dessine ici un « idéal » de l’action, un modèle à
atteindre. C’est en ce sens que nous pouvons parler de
« simulacre » …
•
Une fonction discursive :
Le contrat déclare les engagements réciproques des parties.
Il est une instance de discours, il formule un propos sur
l’action envisagée. Il mobilise donc des compétences
langagières, propres à chaque acteur (l’intervenant social et
l’usager), usant de métaphores plus ou moins maîtrisées par les
protagonistes, mobilisant un vocabulaire spécifique, etc. Il met
en lisibilité l’institution, ses composantes, ses acteurs. Ce n’est
pas une forme neutre de mise en visibilité puisque c’est la
forme contractuelle qui est mise en avant, générant ainsi des
postures spécifiques pour chaque partie.
•
Une fonction économique :
Le contrat est le pivot de l’échange sur le modèle du don et
du contre don : chacun y apporte son engagement, dans une
vision humaniste, voire romantique, de l’échange. Le contrat
régule ici, tout autant qu’il érige, l’«éco-nomos », la « norme
domestique » de l’institution. Il « monétarise » la relation
d’aide en la plaçant dans un système construit d’interactions.
•
Une fonction d’organisation des rapports sociaux :
Le contrat est un acte de normalisation des relations. Parce
séjour ou si la durée prévisionnelle du séjour est inférieure à deux mois, dans les
mesures de protection des mineurs prononcées par le juge des enfants, en cas de
refus de signature du contrat par l’usager ou son représentant … Dans ces cas,
c’est un document individuel de prise en charge qui est conclu et qui n’emporte
pas la nature juridique du contrat.
164
qu’il fixe les termes de l’échange, il introduit des repères
normatifs aux relations, il balise l’espace du jeu relationnel.
D’autant que l’expérience montre que des routines s’installent
assez rapidement dans les équipes. En effet, tout n’est pas
réinventé à chaque négociation contractuelle, des standards
sont pensés a priori, nombre d’établissements ou de services
ont élaboré des modèles de contrats dont il ne reste plus au
professionnel qu’à aménager les aspects personnalisables.
•
Une fonction régulatrice :
La vocation du contrat – dans l’esprit du législateur qui l’a
introduit au cœur des pratiques professionnelles du travail
social – est de corriger la disparité forte qui caractérise la
relation entre l’intervenant et l’usager. Nous l’avons évoqué en
introduction, la particularité de la relation de service en action
sociale tient à la forte différenciation des postures : d’un côté
un intervenant investi du pouvoir de venir en aide, du savoir
sur l’autre et maîtrisant les techniques d’intervention ; de
l’autre un bénéficiaire en situation d’infériorité parce qu’en
demande d’aide, parfois stigmatisé par sa position sociale ou
son handicap, souvent en position de faiblesse du fait de sa
souffrance personnelle. Le contrat joue ici une fonction
compensatrice de ce déséquilibre des positions, c’est une sorte
d’étayage visant à instaurer un semblant de parité. En ce sens,
le contrat est assimilable à nombre d’innovations techniques
en matière de communication.
Bien entendu, si nous pouvons, par analogie, assimiler le
contrat de séjour à un dispositif communicationnel, nous ne
forcerons pas le trait jusqu’à le comparer à des dispositifs
techniques élaborés. Le contrat n’est pas une « machine », il
reste cependant un élément qui participe de l’ensemble
technique que constituent les établissements et services
sociaux et médico-sociaux. Pour être abordé de manière
adéquate, le contrat doit donc être relié à l’ensemble des
dispositifs communicationnels qui structurent l’organisation,
des documents de présentation (y compris sur Internet)
jusqu’au système informatique en passant par les modes
d’organisation : tous ces éléments contribuent à donner forme
au contrat de séjour et à la relation qui se construit entre
l’intervenant et l’usager.
DES CONDITIONS DE FAISABILITE PROPRES AU
CONTRAT DE SEJOUR :
Il est également nécessaire de repérer les conditions de
faisabilité qui rendent envisageable l’utilisation de ce nouveau
dispositif communicationnel. Ces conditions sont issues de la
longue évolution des rapports sociaux marqués par
l’émergence du sujet individuel dans le collectif et le
déploiement des rapports contractuels à toutes les activités
sociales sur fond de généralisation de l’économie de marché.
L’individualisme introduit par la Révolution française a
mis en avant la propriété privée comme un droit central de
toute personne humaine. Ce nouveau contrat social portait les
germes d’une société libérale dans laquelle, presque
« naturellement », la forme contractuelle allait pouvoir
déployer tous ses effets. Si le contrat trouve ses origines dans
les échanges commerciaux – il a alors pour fonction
d’amplifier le modèle « don »/« contre-don » en introduisant la
monnaie comme forme contractuelle d’interaction – il va assez
rapidement déborder le simple échange de biens pour réguler
les échanges humains et sociétaux. Avec l’histoire du contrat,
nous assistons au déploiement d’un modèle culturel qui – par
« nappes » mais aussi par liaisons « rhizomatiques » –
recouvre et estomps les pratiques de « troc », de légation ou de
transmission appuyées sur des principes de domination sociale,
légitimées par les rapports religieux.
Mais, au-delà de cette lecture historique qui peut paraître
évolutionniste, nous pouvons remarquer que les conditions de
faisabilité sont également le produit de discontinuités fortes,
de ruptures. Sinon, nous aurions du mal à comprendre
comment le modèle contractuel – fortement diffusé dans les
champs économique, juridique et politique – a pu s’introduire
dans l’action sociale. Il nous faut noter les discontinuités et
ruptures qui marquent l’évolution de l’action sociale. Son
statut politique tout d’abord a connu, depuis l’ancien régime,
des débats vifs : d’abord marquée par le modèle charitable,
l’action sociale est devenue une dette publique sous la
Révolution, puis un espace intermédiaire pour accompagner
les effets de la révolution industrielle, à l’issue de la période
moderne elle s’est érigé comme le moyen de corriger les
inégalités d’un développement économique source d’injustices
(Autès, 1999), aujourd’hui, elle interroge le niveau des
moyens à mobiliser dans une société qui s’éloigne du système
assurantiel (Castel 1996).
C’est peu dire que la fonction du travail social a évolué
dans une mutation des valeurs de référence. Nous pouvons
penser que l’intervention sociale peine à s’adapter au contexte
de l’hypermodernité, qu’elle y perd ses repères. Peu ouverte
aux mutations de la « société de l’information », elle fait
preuve de résistances culturelles. Sa pertinence est interrogée,
ce qui apparaît fortement au travers des discours qui se
développent dans le milieu professionnel : « refondation »,
« nouvelles légitimités », « crise », « situation paradoxale »,
etc.
Le rôle de l’action sociale dans une société en crise est
fortement interrogé. Il se trouve bousculé par des évolutions
législatives incohérentes qui lui assignent tantôt une fonction
de promotion de la citoyenneté des plus faibles (ce qui était la
philosophie de la loi 2002-2), tantôt la limite à des réponses
instrumentales (Cf. l’évolution de la législation concernant le
secteur de l’insertion), parfois même la convoque à un retour
sur des missions de contrôle social (Cf. le projet de loi sur la
prévention de la délinquance qui devrait être soumis au
parlement à l’automne 2006).
C’est au cœur de ces discontinuités que le contrat de séjour
apparaît. Vient-il signer une reconnaissance inédite du travail
social en lui concédant la capacité à manipuler les mêmes
objets que le monde de la production de biens marchands ?
Dans une série de ruptures, le contrat pourrait apporter
l’opportunité de relégitimer une fonction sociale toujours
centrale mais en voie d’essoufflement. C’est sans doute ce
contexte incertain et complexe qui crée une condition de
faisabilité essentielle pour
ce nouveau dispositif
communicationnel. Autrement dit, et pour reprendre les
travaux d’André Leroi-Ghouran (1973), trois conditions de
faisabilité devaient être réunies pour introduire le contrat de
séjour dans les établissements et services sociaux et médicosociaux : une idée (le contrat comme ouverture vers une
nouvelle forme relationnelle) ; un besoin (refonder la relation
d’aide sur un support légitime dans un contexte
d’hypermodernité) ; un milieu favorable (un champ
professionnel traversé par les mutations culturelles de la
« société de l’information »).
Nullement « tombé du ciel », le contrat comme base
d’échanges entre des professionnels et des usagers bouscule
les pratiques, les discours et les postures. Ce phénomène
s’inscrit dans un processus de virtualisation des corps, des
messages et des échanges économiques, contribuant à une
nouvelle construction sociale. Envisagé sous cet angle, inspiré
des écrits de Pierre Lévy (1990), le contrat « fixe des
procédures précises pour transformer les relations et les statuts
personnels. » Le contrat est bien un « processus continu de
virtualisation » : « Des relations virtuelles coagulées, comme
le sont les contrats, sont des entités publiques et partagées au
sein d’une société. » (Lévy, 1998, p.76).
LE CONTRAT : GERME INAUGURAL ?
Après avoir rapidement évoqué les conditions
d’émergences du contrat, quelle est son incidence sur les
165
formes organisationnelles des institutions ?
Pour cela, dans cette partie, nous voudrions, sous
l’éclairage des travaux de Gilbert Simondon, analyser
l’institution comme « système métastable » : espace de mise en
forme de matières sous l’effet de flux énergétiques qui le
traversent et créent des différences de potentiels. Nous
formulerons l’hypothèse que le contrat en action sociale, est
un « germe inaugural » qui pourrait jouer un rôle déterminant
dans le milieu technique que représentent les établissements et
services sociaux et médico-sociaux. Le contrat est inscrit dans
un processus d’individuation –qui concerne à la fois les
acteurs humains, les dispositifs techniques et l’institution–
modifiant les formes organisationnelles dans lesquelles il se
développe.
Nous l’avons évoqué ci-dessus, un établissement ou un
service social ou médico-social, comme toute institution, peut
être assimilé à un « système technique » (Stiegler, 1992221). Ce
système est en état de métastabilité : Un système métastable est
un milieu dans lequel des énergies existent et créent des
différences de potentiels qui peuvent remettre en cause son
équilibre interne. Cette notion d’énergie est déterminante, elle
constitue ce troisième terme qui permet d’échapper à la vision
dualiste de l’hylémorphisme qui ne prend en compte que la
matière et la forme222. La constitution d’un individu – Gilbert
Simondon parle « d’individu technique223 » – ne dépend pas
que d’un rapport entre forme et matière mais d’une sorte de
triangulation entre forme, matière et énergie potentielle. C’est
parce que le rapport forme/matière met en jeu une énergie que
l’individu peut s’individuer. Cette énergie est un facteur
déterminant du processus d’individuation, de son déroulement
et de son aboutissement.
L’élément qui enclenche, pour le système, un processus de
changement – d’individuation –, c’est-à-dire qui va rompre
l’équilibre précaire de métastabilité, est dénommé par
Simondon « germe inaugural ». Prenant appui sur
l’observation des phénomènes physiques de cristallisation, il
montre que c’est l’introduction d’un germe cristallin dans un
mélange saturé qui déclenche la cristallisation du souffre.
Nous retrouvons la situation de métastabilité et d’énergie
disponible qui vont créer les conditions de l’individuation
mais c’est le germe – fonction de catalyseur – qui va
déterminer les formes de l’individuation. En effet, les sciences
chimiques nous enseignent que selon la nature du germe, le
processus et son résultat ne seront pas les mêmes. Le germe
joue donc un rôle déterminant dans tout processus
d’individuation.
Le contrat de séjour peut-il être assimilé à cette fonction de
germe inaugural et à quelles conditions ? Pour avancer sur
cette hypothèse, nous devons compléter l’outillage conceptuel
que nous fournit le philosophe avec la notion de
« transduction ». C'est par le contact entre zones, entre
systèmes, entre formes et matières que se développe le
processus d’individuation. Cette transduction ne se limite pas
aux zones de frottement entre deux systèmes : un système
s’individuant va créer d’autres espaces de contacts qui
entraîneront des processus d’individuation dans les systèmes
métastables voisins, etc.224
Le contrat de séjour, nous l’avons vu, est au cœur de la
relation d’aide – elle même fondement de l’institution du
221 « Un système technique constitue une unité temporelle. C’est une
stabilisation de l’évolution technique autour d’un point technique se
concrétisant par une technologie particulière. »(Stiegler, 1992, p.45)
222
Bernard Stiegler apportera une critique utile aux thèses de Gilbert Simondon
en ajoutant un quatrième terme :le temps. Le cadre de notre propos ne nous laisse
pas “le temps” de développer ce point.
223
224
Cf. Simondon 1989a, entre autres p.61.
La transduction est une opération « par laquelle une activité se propage de
proche en proche à l’intérieur d’un domaine, en fondant cette propagation sur
une structuration du domaine opérée de place en place : chaque région de
structure constituée sert à la région suivante de principe et de modèle, d’amorce
de constitution, si bien qu’une modification s’étend ainsi progressivement en
même temps que cette opération structurante. » Simondon, 1989b, p.24.
travail social. Le contrat, matrice relationnelle, organise et
relie les notions de forme de l’organisation. Les professionnels
ne s’y trompent pas : quand ils résistent à l’introduction de ce
nouvel objet dans leurs pratiques, ils craignent une
juridicisation de ce qu’ils assimilent à un « colloque
singulier » échappant à toute contrainte technique ; quand ils
s’en emparent comme moyen de renouveler leur fonction, ils
parlent de révolution copernicienne ouvrant un nouvel espace
de travail. Le contrat de séjour peut donc jouer, dans les
organisations de l’action sociale, le rôle de germe structural au
pouvoir directeur et organisateur. La structure contractuelle
gagnant de proche en proche l’ensemble des champs
relationnels de l’institution. Nous pourrions objecter que les
établissements et services sociaux et médico-sociaux sont déjà
fortement marqués par le modèle contractuel : contrats
associatifs, contrats de travail, conventions d’habilitation, etc.
C’est l’idée radicalement nouvelle que l’aide peut se
contractualiser – alors qu’auparavant elle s’octroyait225 – qui
modifie la conception, la structure et la finalité du modèle
contractuel, opportunité à repenser les contrats préexistants.
Ce nouveau support de travail libère des énergies créatrices –
énergies potentielles – faisant surgir une nouvelle structure
d’action. L’information produite, notamment par la signature
du document, crée « une direction organisatrice » :
« l’information n’est pas réversible : elle est la direction
organisatrice émanant à courte distance du germe structural
et gagnant le champ : le germe est émetteur, le champ est
récepteur, et la limite entre émetteur et récepteur se déplace
de façon continue quand l’opération de prise de forme se
produit en progressant … 226»
L’information, échangée dans la négociation et la
conclusion du contrat de séjour, apparaît dans le processus
d’individuation comme une forme plus élaborée d’énergie qui
médiatise les processus de changement et d’évolution227. La
transduction, liée à la décharge énergétique, est « information » : elle informe topologiquement une structure.
L’information est ce qui donne sens à l’individuation.
L’information « suppose l’existence d’un système en état
d’équilibre métastable pouvant s’individuer ; l’information, à
la différence de la forme, n’est jamais un terme unique, mais
la signification qui surgit d’une disparation.228 »
INCIDENCES SUR LES FORMES
ORGANISATIONNELLES :
Le contrat, germe inaugural, « in-forme » l’organisation.
Nous percevons donc l’incidence de cette proposition sur les
formes organisationnelles. Tout d’abord, nous assistons, par la
généralisation du contrat, à un changement de posture de
l’intervenant. Il devient « technicien », c’est-à-dire celui qui va
mettre en œuvre des dispositifs techniques d’information et de
communication. Il devient ainsi celui qui est apte, non plus à
une relation de face à face inspirée du modèle médical ou
psychanalytique mais à une relation médiatisée par l’usage de
techniques (le contrat, le projet, l’écriture, plus largement la
trace). Il est médiateur. Cette nouvelle posture du travailleur
social relié aux ensembles techniques qui reformatent ses
méthodologies professionnelles reste à observer dans des
déploiements qui commencent à peine à produire leurs effets.
D’autre part, si nous convenons que le travail social d’aide
à la personne est un espace privilégié qui organise, structure
ou réorganise le rapport au monde d’individus en situation
d’exclusion – parce qu’il fait œuvre d’éducation, de
rééducation, de réadaptation, voire même de réparation ou de
225
Cf. l’évolution que le droit positif a opéré dans le domaine de l’accès à l’aide
sociale, notamment par la réforme de 1986 (loi particulière adaptant les transferts
de compétences de la décentralisation en matière d’action sociale).
226
Simondon, 1989b p. 32.
227
« L’information est ce par quoi l’incompatibilité d’un système non résolu
devient dimension organisatrice dans sa résolution. » Ibid. p22.
228
Ibid. p 28.
166
suppléance – le « rapport au monde » induit par les techniques
mises en œuvre est déterminé par une technologie que la
culture du travail social n’a pas toujours su intégrer avec
justesse. G. SIMONDON éclaire ce point : « Le rapport de
l’Homme au monde peut en effet s’effectuer soit à travers la
communauté, par le travail, soit de l’individu à l’objet, dans
un dialogue direct qu’est l’effort technique…229 ».
S’il en est besoin, Simondon va plus loin dans les
perspectives ouvertes par ces mutations : « Tout dispositif
technique modifie dans une certaine mesure la communauté,
et institue une fonction qui rend possible l’avènement d’autres
dispositifs techniques ; il s’insère donc dans une continuité
qui n’exclut pas le changement mais le stimule, parce que les
exigences sont toujours en avance sur les réalisations.230 »
Cet effort technique se heurte à des résistances.
L’ensemble du champ de l’action sociale et médico-sociale est
actuellement bousculé par une vague de rationalisation des
pratiques, induites par un cadre légal de plus en plus précis et
contraignant : traçabilité, évaluation, contrôle, formalisation et
contractualisation des interventions, publicisation des procès,
etc. Nous assistons à la transposition de techniques issues
d’autres champs d’activité, transposition qui provoque des
résistances culturelles fortes. Ces nouveaux objets techniques,
nouveaux supports à l’intervention socio-éducative, n’auraient
pas de validité pour les établissements et services …
« L’adoption ou le refus d’un objet technique par une société
ne signifie rien pour ou contre la validité de cet objet ; la
normativité technique est intrinsèque et absolue ; on peut
même remarquer que c’est par la technique que la pénétration
d’une normativité nouvelle dans une communauté fermée est
rendue possible. La normativité technique modifie le code des
valeurs d’une société fermée, parce qu’il existe une
systématique des valeurs, et toute société fermée qui,
admettant une technique nouvelle, introduit des valeurs
inhérentes à cette technique, opère par là même une nouvelle
structuration de son code de valeurs. Comme il n’est pas de
communauté qui n’utilise aucune technique ou n’en introduise
jamais de nouvelles, il n’existe pas de communauté totalement
fermée et inévolutive.231 »
Nous pouvons également éclairer l’apparition du contrat
en analysant ce qu’il va modifier des rapports institutionnels.
Pour Simondon, il ne faut pas chercher à établir une relation
symétrique entre l’individu et l’être technique. Cela aboutit
soit à la domination de l’homme sur la machine (le terme
DISTIC serait ici plus approprié que celui de machine utilisé
par Simondon), soit à la domination de l’homme par la
machine : c’est-à-dire à deux impasses. Car c’est une véritable
relation complémentaire qui caractérise le rapport homme
machine, relation noble qui a valeur d’être ayant une fonction
doublement génétique pour l’homme et pour la machine
« Dans la véritable relation complémentaire, il faut que
l’homme soit un être inachevé que la machine complète, et la
machine un être qui trouve en l’homme son unité, sa finalité et
sa liaison à l’ensemble du monde technique ; homme et
machine son mutuellement médiateurs…232 »
Il conviendrait de complexifier ce propos parcellaire car
trop centré sur une approche machinique de l’évolution
technique. En l’occurrence le contrat de séjour met en scène
trois termes : l’intervenant social, le bénéficiaire – tous deux
parties au contrat – et le contrat en tant qu’objet technique
jouissant d’une certaine autonomie par rapport aux deux autres
termes. L’espace disponible pour cet exposé ne permet pas
d’approfondir cette piste. Nous mesurons cependant que le
facteur complexe du contrat, dans les pratiques quotidiennes
qu’il nous est donné d’observer, produit de multiples effets
complémentaires, élargissant l’aire de la négociation à de
229
Ibid. p. 263-264.
230
Ibid. p. 265 et 267.
231
Ibid. p. 264-265.
232
Ibid. p.278.
nombreux paramètres imprévus au départ
contextuelles, sociales, économiques, etc.).
(données
CONCLUSION :
Définit dans une stratégie de communication, inscrit dans
une nouvelle répartition des responsabilités et des prises de
risque, marqué par l’influence du management participatif,
susceptible d’évoluer par les rapports d’usage qu’il met en
action, le contrat apparaît comme un élément central d’une
refondation des normes de l’intervention sociale, des conduites
des acteurs, des pratiques professionnelles et des constructions
institutionnelles.
Le contrat de séjour, en tant que DISITIC, occupe une
place privilégiée dans l’évolution en cours des formes
organisationnelles. Germe inaugural, il génère, par
transduction, une mutation des modèles relationnels,
reformatant les procès mêmes de production des services
rendus aux usagers des établissements et services sociaux et
médico-sociaux.
Mais la technicisation des processus d’intervention ne peut
être approchée comme un phénomène technique en soit, lié à
l’apparition de nouveaux modes opératoires. Une telle vision
nous exposerait à la critique d’un mode de management limité
à une sorte de gouvernement par l’objet ou par l’instrument.
Notre recherche tend au contraire à considérer les mutations
des formes organisationnelles comme un ensemble processuel
dont l’acte professionnel est un des éléments s’intégrant à
l’ensemble technique que constitue l’institution.
Cet axe de recherche peut être particulièrement utile à un
secteur professionnel marqué par une sorte de dichotomie
entre l’espace relationnel, essentiellement fondé sur une
approche intersubjective, et l’espace des techniques, réduit à
une simple collection d’instruments au service de la finalité de
l’action. Nous nous proposons donc d’interroger sous un jour
nouveau la relation de l’intervenant social aux objets
techniques qui l’entourent.
« Jusqu’à ce jour, la réalité de l’objet technique a passé
au second plan derrière celle du travail humain. L’objet
technique a été appréhendé à travers le travail humain, pensé
et jugé comme instrument, adjuvant, ou produit du travail. Or,
il faudrait, en faveur de l’homme même, pouvoir opérer un
retournement qui permettrait à ce qu’il y a d’humain dans
l’objet technique d’apparaître directement, sans passer à
travers la relation de travail. C’est le travail qui doit être
connu comme phase de la technicité, non la technicité comme
phase du travail, car c’est la technicité qui est l’ensemble
dont le travail est une partie, non l’inverse.233 »
BIBLIOGRAPHIE :
AUTES Michel. Les paradoxes du travail social, Paris, Dunod, 1999.
CASTEL Robert. Les métamorphoses de la question sociale, Paris, Fayard, 1996.
LEROI-GOURHAN André. Milieu et technique. Paris : Albin Michel,
1945/1973.
LEVY Pierre, Les technologies de l’intelligence, l’avenir de la pensée à l’ère
informatique, Paris, La Découverte, 1990.
LEVY Pierre, Qu’est-ce que le virtuel ? Paris, La Découverte, 1998.
PERRIAULT Jacques. La logique de l’usage, Essai sur les machines à
communiquer. Paris : Flammarion, 1989.
SIMONDON Gilbert.
a) Du mode d’existence des objets techniques. Paris : Aubier, Res l’invention
philosophique, 1958/1989.
b) L’individuation psychique et collective, Aubier – Res L’invention
philosophique, 1989.
STIEGLER Bernard. La technique et le temps, 1. La faute d’Epiméthée.
Paris :Galilée, La philosophie en effet, 1992.
233
Simondon, 1989a, p.241.
167
Pratiques effectives de travail collaboratif à distance :
limites prévisibles et inattendues.
Catherine KELLNER,
Luc MASSOU,
Pierre MORELLI
Centre de Recherche sur les Médiations (EA 3476)
Université Paul Verlaine-Metz
C’est dans une posture de recherche un peu particulière
que nous nous situons ici. En effet, nous sommes nous-mêmes,
individuellement ou à plusieurs, impliqués dans les trois
projets qui servent de cadre à nos observations des usages de
plateformes dans un travail collaboratif. Ce paramètre
épistémologique n’est évidemment pas neutre dans la mesure
où nos propres pratiques, ainsi que celles de nos collègues et
collaborateurs, deviennent nos objets d’étude. Notre
positionnement est donc plus de proposer un retour
d’expérience qui nous semble une source riche de questions et
de pistes de recherche que de rendre compte d’une recherche
suivant un protocole expérimental très précis. En outre, l’état
de l’art que nous proposons n’est pas exhaustif, il a été
constitué pour répondre à des questions précises dans cette
réflexion qui nécessitera d’être poursuivie.
Au point de départ de cet article, il y a une opportunité :
celle d’utiliser dans trois projets différents, deux plateformes
d’enseignement à distance comme outil de travail
collaboratif234. Ces projets, par leur diversité, peuvent nous
permettre de faire apparaître des variables différentes et de voir
ce qu’elles peuvent modifier. Le nombre des participants, leur
situation géographique, l’existence ou non de relations
préalables, l’organisation intrinsèque de chaque projet, les
différents niveaux de responsabilité, la culture professionnelle
propre à chaque type d’intervenants ainsi, évidemment, que la
diversité de pratiques et de représentations de pratiques des
TIC, sont autant de paramètres à prendre en compte. Devant
toutes ces situations différentes, il n’est pas question de tirer
des conclusions généralisantes mais seulement de soulever des
points saillants.
Dans ces projets, les difficultés rencontrées, les questions
posées sur certains types d’usages ont poussé à formaliser
notre réflexion. Nous allons donc, après avoir présenté les
contextes des trois projets, examiner les usages et non-usages
des fonctionnalités des plateformes utilisées, et tenter enfin de
comprendre l’écart entre les utilisations prévues et les usages
observés. La vérification expérimentale des hypothèses
formulées dans cette communication fera l’objet d’une
publication ultérieure.
Contextes d’usage des trois projets sélectionnés
La présentation des contextes d’usage des trois projets
sélectionnés passera par la description de la nature des projets,
des plateformes utilisées, des publics et des contextes
d’utilisation.
o Nature des projets
Le premier projet (Proximam-Lotharingie)235 implique une
dizaine de centres sociaux répartis dans trois régions
limitrophes (Grand Duché de Luxembourg, Région Lorraine,
Wallonie) avec le soutien de la communauté européenne
(programme Interreg III, 2004-2007). Il implique plus de
234
Brigitte Cord, de l’Université Pierre et Marie Curie-Paris, désigne le travail
collaboratif comme, « d’une part la coopération entre les membres d’une équipe
et d’autre part, la réalisation d’un produit fini ».
235
Pour plus de détails sur l’apport envisagé des TIC dans le projet voir l’article
de Didier Baltazart et Pierre Morelli (2006).
quatre-vingt travailleurs sociaux qui partagent une
problématique commune : le suivi de jeunes mères en situation
de précarité sociale et dont la plupart, mobiles au sein de la
Grande région, sont connues par plusieurs structures d’accueil.
Il s’agit d’élargir à un cadre interrégional une expérience
menée en Wallonie et consistant à favoriser la construction du
lien mère-enfant.
Un consortium de sept partenaires européens prend en
charge l’organisation du second projet (WebTrainingGame)
avec l’aide du programme Leonardo Da Vinci de l’Union
Européenne (2004-2007). Il comprend une école de commerce
en Belgique, quatre universités (France, Pologne, GrandeBretagne et Grèce), un centre de design appliqué grec et un
centre de recherche public luxembourgeois. Ses objectifs sont
de concevoir et développer un jeu d’entreprise en ligne pour la
téléformation au e-business et au e-marketing.
Le troisième projet (BDInteractive) implique des équipes
universitaires de Lisbonne et de Metz, dans la création d’une
bande dessinée interactive. Il s’agit d’adapter une interface
graphique développée par l’équipe portugaise à un cédérom
sur la citoyenneté européenne destiné à des enfants de 8 à 10
ans.
o Plateformes utilisées
Les trois projets précités utilisent actuellement deux
plateformes technologiques différentes : Claroline236 et
Dokeos. A l’origine, ces deux outils sont dédiés à la formation
ouverte et à distance (e-learning). Leur fonction principale est
d’offrir un système de gestion de cours en ligne via internet,
intégré dans une interface la plus simple possible.
Claroline a été créée à l’université Catholique de Louvain
(UCL) et est actuellement utilisée dans la plupart des pays
européens. Comme le souligne son auteur principal, Thomas
De Praetere (2002) : « sa philosophie de départ est
minimaliste : le logiciel doit prévoir des boîtes vides et
permettre de structurer échanges et contenus de multiples
façons ». Dokeos est un environnement numérique
d'apprentissage utilisé par plus de mille organisations dans le
monde pour gérer les activités d'apprentissage et de
collaboration à distance. Il a également été créé par un groupe
d’universitaires belges dont certains fondateurs du logiciel
Claroline. Sa philosophie est donc très similaire, seule
l’interface et certaines fonctionnalités peuvent légèrement
varier d’un outil à l’autre.
o Les publics
Les personnes impliquées dans les trois projets présentent
des compétences et un niveau de pratique fort différents. Nous
avons à faire, dans le cas des projets BDInteractive et
WebTrainingGame à des utilisateurs très réguliers, voire
experts : usage quotidien de la messagerie et des agendas
électroniques, connaissance générale de la plateforme
Claroline, bonne connaissance des outils de messagerie
instantanée (de type MSN). Certains d’entre eux utilisent
236
http://www.claroline.net ; http://www.dokeos.com
168
l’ordinateur à un niveau très avancé, notamment pour la
conception multimédia et la gestion de projet.
Les acteurs du projet Proximam ne présentent ni
l’homogénéité, ni la régularité et la qualité de pratique de ces
derniers. Contrairement aux deux autres cas, cette situation a
réclamé la mise en place d’un système de cartographie des
compétences et des pratiques afin d’évaluer au plus juste les
différences. Les résultats en notre possession montrent que
l’existence de connaissances et de pratiques est principalement
liée aux personnels chargés de responsabilités. La grande
majorité des acteurs sociaux utilise peu ou rarement les TIC.
Un effort de vulgarisation et d’incitation à l’utilisation des
outils doit donc être pris en compte.
o Les contextes d’utilisation
Les trois projets répondent à trois contextes d’usage
différents, prévus et définis en amont.
Dans le projet Proximam, l’objectif majeur dans
l’utilisation de Dokeos est la mise en place d’une culture de
travail collaboratif (avec période d’acculturation au
démarrage) et l’identification de besoins d’usages qui
permettra de développer un futur outil mieux adapté au projet.
Pour les usagers, cet outil concerne plus particulièrement des
personnes occupant un poste à responsabilité dans chaque
structure ou au sein du projet (animation/modération d’un
groupe de travail) et des travailleurs sociaux n’ayant pas de
responsabilité organisationnelle particulière.
Dans le projet WebTrainingGame, la plateforme Claroline
a été présentée et expliquée dès la réunion de démarrage du
projet à l’ensemble des partenaires (19 participants concernés
au total), comme outil de communication et de gestion du
projet. Les fonctions principalement mises en avant étaient le
dépôt et l’échange de documents, l’agenda partagé, les
annonces et le forum. Le coordinateur du projet avait pour cela
configuré l’outil en désactivant certaines fonctions, en préstructurant l’espace de dépôts de fichiers (découpage effectué
par partenaires, par groupes de travail et par thèmes) et en
ayant déposé certains documents utiles pour démarrer
(budgets, planning, manuel financier et administratif, etc.).
Dans le projet BDInteractive, l’équipe a dû faire face à
trois lieux de résidence différents chez les partenaires : Metz,
Reims et Lisbonne. La création d’un espace de travail partagé
dans Dokeos a donc été rapidement décidée après la première
réunion de lancement du projet à Lisbonne, mais sans
présentation spécifique de la plateforme étant donné que
l’outil était déjà connu de la plupart des membres français et
que le besoin principal était d’exploiter le dépôt de documents
et le forum.
Du point de vue de l’administration des droits d’utilisation
dans les plateformes Claroline et Dokeos, trois principaux
profils
sont
possibles :
« étudiant/membre »,
« tuteur/modérateur » et « responsable ». Dans le cas des
projets WebTrainingGame et BDInteractive, tous les
partenaires du projet se sont vus attribuer le profil
« responsable » et parfois « tuteur/modérateur », ce qui signifie
le maximum de droits d’usage dans la plateforme
(dépôt/suppression de fichiers, configuration des profils, etc.).
Seuls certains intervenants ponctuels du projet ont été inscrits
dans un profil « étudiant ». Pour Proximam, une hiérarchie
plus stricte a été mise en place : deux profils « responsable » et
« tuteur/modérateur » et des droits administrés exclusivement
en fonction de l’appartenance à un groupe de travail.
Constats d’usages et de non-usages des outils
Il nous a semblé pertinent de distinguer d’abord la
typologie des usages observés, de s’interroger ensuite sur les
causes de leur limitation, pour conclure enfin sur un exposé
des motifs d’utilisation.
o Typologie des usages observés
Les usages limités
Parmi toutes les fonctionnalités classiques que l’on
retrouve dans une plateforme, certaines nous ont semblé peu,
voire très peu utilisées. En ce qui concerne les outils qui
permettent de stocker des documents, on note que les
possibilités d’associer des commentaires contextualisants ne
sont pas toujours utilisées. Dans le projet Proximam, par
exemple, ces commentaires sont surtout renseignés par le
modérateur après le dépôt d’un document par quelqu’un
d’autre. Ce qui apparaît également, et nous y reviendrons, c’est
le caractère officiel de la majorité des documents déposés. La
plupart d’entre eux ont fait l’objet d’une validation par le
groupe ou par une « autorité » à quelque niveau que ce soit de
la hiérarchie. On observe très peu de documents non finalisés
ou en cours de finalisation. Dans le cas de Proximam, ne sont
placés à la disposition de toute la communauté que les fichiers
ayant un intérêt permanent. Quant à nos propres consultations
de ces documents, elles sont ponctuelles, en aucun cas
systématiques, et dépendent fortement de l’état d’avancement
des projets.
En ce qui concerne les fonctions de communication de ces
plateformes, on constate qu’elles sont également peu utilisées.
L’unique cas d’utilisation du forum concerne le projet
BDInteractive pour une période d’échange très courte, sur un
seul sujet entre partenaires français et portugais. De la même
manière, les fonctions d’annonce et d’envoi de message sont
utilisées
différemment
selon
les
projets.
Dans
WebTrainingGame, les messages sont diffusés par voie de
messagerie électronique externe (de type Outlook) sans passer
par Claroline. Dans Proximam, la fonction d’annonce
(réservée aux modérateurs) est utilisé
Téléchargement