Programme

publicité
Interprétations sociologiques et
analyses textuelles informatisées
ARCATI : retour sur cinq années d’expérience
Journée d’étude du vendredi 27 janvier 2006
Site Pouchet (ex-Iresco), 59-61 rue Pouchet, 75 017 Paris.
Depuis cinq ans, le réseau ARCATI (Atelier recherche coopératif sur l’analyse textuelle
informatisée) organise des séminaires bi-mensuels et bénéficie d’un intérêt assidu de
nombreux chercheurs issus de différents horizons disciplinaires. Pour la première fois depuis
sa création, le réseau a prévu une journée d’étude qui se tiendra le vendredi 27 janvier 2006
sur le site Pouchet, 59-61 rue Pouchet 75017 Paris (Métro Guy Moquet ou Brochant). Ce
moment de synthèse sera placée sous le signe d’un bilan de fonctionnement et d’une mise en
perspective théorique, méthodologique et épistémologique sur les usages des logiciels
d’analyse de discours en sciences sociales. L’entrée est libre sous réserve d’une inscription ou
d’une confirmation de présence (pour les personnes déjà enregistrées) avant le 20 décembre
2005 par courriel à [email protected].
Programme
9h00 Accueil des participants
Matinée sous la présidence de Pascal Marchand (LERASS, Université Toulouse III).
9h15-10h00 ARCATI : histoire, fonctionnement, trajectoires
Témoignage de Jacques Jenny, (ancien chercheur CNRS, membre fondateur d’ARCATI)
Mathieu Brugidou, (GRETS-EDF, comité de pilotage ARCATI) : Compétences et statuts de la
participation au réseau ARCATI
10H00-10h30 Christophe Lejeune (ULG-EHESS) : Panorama de l’offre logicielle
existante
10h30-12h00 De quelques enjeux autour de l’analyse textuelle informatisée
Claire Brossaud (GRASS-CNRS, coordinatrice du réseau ARCATI), Bernard Reber,
CERSES-CNRS, comité de pilotage d’ARCATI) : Analyse textuelle informatisée et
Technologies de l’information et de la communication : parcours de recherche.
En prenant appui sur leurs parcours de recherche, Claire Brossaud et Bernard Reber se proposent de définir un
certain nombre d’enjeux qui les ont conduit vers les Technologies de l’Information et de la Communication et dans
ce champ-là, vers les logiciels d’analyse textuelle informatisée. Ils motiveront leurs orientations vers ces objets en
questionnant, sans pour autant s’illusionner sur le déterminisme technique, certaines de leurs caractéristiques : les
TIC (Technologies de l’information et de la communication) et par extension les logiciels d’analyses textuelles
informatisées permettent-elle de « mieux » argumenter, de favoriser la réflexivité, de dire l’histoire ou encore de se
repérer dans un monde complexe et réticulaire ? Selon les tâches attendus par les logiciels d’analyse textuelle
qu’ils ont abordés dans leurs travaux, ils nous invitent à réfléchir à leurs usages en sociologie et en philosophie
morale.
Marc Glady (Université Paris Dauphine, comité de pilotage ARCATI), Jacques Jenny :
Paradigme des registres de sens pour l’analyse (psycho)sociologique du discours.
Dans la continuité de l’inventaire critique des différents logiciels d’analyse textuelle informatisée (Jenny, 1997), il
s’agira de dégager ici les implicites de ces logiciels quant à une théorie du langage et à l’analyse de la
construction de sens. On sera amenés à revenir sur des questions de sociologie générale pour proposer quelques
« dimensions constitutives fondamentales », quasiment incontournables lorsque l’on veut pratiquer une analyse
sociologique ou psycho-sociologique de toute énonciation par traitement automatisé de matériaux discursifs. La
mise en œuvre de ces dimensions d’analyse et leur traduction sous forme de programme de repérage (marqueurs)
peut faire l’objet d’un nouveau cahier des charges à finaliser éventuellement avec des concepteurs de logiciels et
avec des socio-linguistes.
Mathieu Brugidou, Karl Van Meter (LASMAS-CNRS, comité de pilotage ARCATI) :
Questions d’épistémologie et de méthodes posées par le recours à l’analyse textuelle
informatisée dans la recherche sociologique.
Au cours des cinq années de séminaires, le paysage méthodologique d’ARCATI s’est révélé plus contrasté que
prévu, tant les paradigmes, les champs disciplinaires et les cadres théoriques – d’ailleurs inégalement explicités soutenant ces méthodes sont divers. Renonçant à optimiser des parcours méthodologiques si variés, on a tout au
plus repéré quelques concentrations remarquables. Ainsi celle qui oppose des logiciels marqués par une
épistémologie nomologique, « explicative », s’attachant à décrire les textes indirectement ou directement à travers
des variables et cherchant derrière les « données textuelles » , le format des « données numériques », aux logiciels
inspirés par une épistémologie herméneutique, « compréhensive », décrivant plus volontiers à partir des textes des
compétences indigènes – qu’elles soient argumentatives ou narratives – et mettant en évidence des « grammaires »,
des schèmes. En prenant deux exemples, les CAQDAS (Computer-Asssited Qualitative Data Analysis Software) et
les systèmes d’analyse tels qu’Alceste et Trideux, on constatera combien ces deux formes polaires affectent les
logiciels eux-mêmes ainsi que le travail du chercheur, qui détourne souvent les fonctionnalités de leurs objectifs
initiaux. Que des évolutions, trajectoires de méthodes et projets de recherche soient possibles montrent assez
l’existence, par delà la pluralité des langages de la sociologie, d’un domaine de cohérence ou comme dirait JeanMichel Berthelot de « communauté de langage » qui favorise des « interlangages ».
Débat avec la salle
12h00 Déjeuner
13h30 Pratiques de la sociologie et analyses textuelles informatisées
Après-midi sous la présidence de Claude Dubar (Printemps, Université de Saint-Quentin en
Yvelines)
13h30-14H20 Construire un objet sociologique avec l’analyse de discours
Mathilde de Saint-Léger, Bill Turner (LIMSI-CNRS) : Du concept de « traduction » à la
technique des mots-associés.
La sociologie des contenus scientifiques et techniques a eu beaucoup de mal à s’imposer au début des années 70.
M. Calon et B. Latour ont forgé le concept de « traduction » en vue de décrire un monde social composé d’entités
qui s’entre-définissent mutuellement et en permanence. Dans cet univers où seules comptent associations et
dissociations, la traduction rassemble tous les mécanismes par lesquels un acteur, quel qu’il soit, identifie d’autres
acteurs ou éléments et les met en relation les uns avec les autres. Le problème méthodologique que pose une
sociologie des contenus scientifiques et techniques se résume dans cette vision de la traduction : comment donner à
voir la fluctuation des entités (ou forces) qui participent à l’élaboration des connaissances et des savoir-faire ? Ou
plus simplement, comment décrire l'état d'un système productif et suivre son évolution dans le temps ? La technique
des mots-associés (co-word analysis) est née de cette interrogation et du choix que nous avons fait d'explorer les
mécanismes de traduction moyennant l'étude des écrits scientifiques.
Patrick Trabal (EHESS-GSPR, Université Paris X-Nanterre) : Des outils informatiques au
service du travail sociologique.
Dans cette communication, nous défendrons l’idée selon laquelle la tension entre des préoccupations sociologiques
et le développement de méthodes et d’outils informatisés peut être surmontée. Pour cela, nous partirons de
quelques questionnements au cœur de notre travail de sociologue, pour montrer comment, avec la série de logiciels
Prospéro-Marlowe-Chéloné, il est possible de faire des expériences sur les textes et ainsi progresser dans le
raisonnement. Il s’agira donc de décrire les nombreux passages entre des réflexions théoriques, des
questionnement sur un matériau donné et des considérations techniques. Ce parcours nous conduira à préciser le
type d’épistémologie dans lequel s’inscrivent nos travaux ainsi que notre conception du travail collectif au
fondement de nos projets.
14H30-15h30 Faire un travail de formalisation sociologique avec l’analyse textuelle
informatisée
François Rastier (Directeur de recherche, CRIM-Inalco, TGE-Adonis) : Décrire normes et
valeurs par la sémantique de corpus ?
Les deux linguistiques, celle de la langue et celle de la parole restent unies par l’espace des normes, dont l’étude
peut permettre de revenir au problème du rapport entre idéologies et « formations discursives », en le posant au
sein de la linguistique. Un domaine de recherche des plus prometteurs semble celui de la doxa, car l’accès à de
grands corpus numériques permet d’étudier la stéréotypie textuelle. Entre l’espace normatif des règles et le
désordre apparent des usages, l’espace des normes s’étend ainsi de la généralité de la doxa jusqu’à la
particularité du paradoxe.
Carme Alemany (sociologue, directrice de recherche du CEDIS (Centre d'Etudes Femmes et
Société), conceptrice du logiciel Qualita) : L'analyse de contenu classique et les limites des
logiciels existants.
On examinera dans un premier temps deux difficultés rencontrées dans certaines recherches sociologiques
assistées par ordinateur : 1. croiser des variables lorsqu'on découvre que les réponses varient en fonction de
certaines variables non prévues d'avance. 2. analyser et donner du sens aux comportements méta-langagiers :
rires, pleurs, tremblements de voix, doutes et silences exprimés dans les entretiens. Puis nous cernerons l’apport
spécifique du logiciel Qualita par rapport aux entretiens de groupe et groupes de discussion dans ce contexte en
insistant notamment sur la possibilité offerte par cet outil de distinguer les réponses de chaque personne.
Valérie Beaudoin (France Télécom R&D) : Apports des traits contextuels (linguistiques et
sociologiques) pour consolider l'analyse textuelle.
Les méthodes de statistique textuelle permettent de comparer des unités textuelles de taille et de nature variable en
fonction de leurs occurrences (toutes ou certaines, brutes ou réduites, simples ou complexes...). Pour orienter,
affiner et consolider les traitements de statistique textuelle, il nous paraît essentiel d'introduire trois dimensions :
la prise en compte des conditions de production du texte, le croisement avec d'autres indicateurs linguistiques
(syntaxiques, sémantiques, voire métriques) et enfin la capacité à construire et à comparer à un niveau plus macro
des profils de textes en fonction des champs lexico-sémantiques. En balayant quelques expériences sur des corpus
variés, nous montrerons comment un ancrage contextuel de l'analyse textuelle permet de construire des
interprétations qui résistent mieux.
Débat avec la salle
15H30-16H00 Pause
16H00-17H00 Le statut de l’interprétation dans l’analyse textuelle informatisée
Eddie Soulier (chercheur en informatique, Tech-CICO, Université Technologiques de
Troyes) : L’analyse informatisée des narrations professionnelles dans la perspective d’une
sociologie de la connaissance.
HyperStoria, OntoStoria, Sum’itUp et Memor Expert est une suite logiciels destinée à l'étude des différentes
facettes du fonctionnement de la narrativité dans les interactions sociales de travail. La question de la signification
est ainsi mise en rapport avec l'interaction et plus généralement avec les processus cognitifs sociaux. La
conception de ces outils d'étude s'appuie largement sur l'ingénierie des connaissances puisque l'un des objectifs est
d'assister les processus de création, partage et réutilisation de connaissances narratives dans le cadre
d’interventions en milieu professionnel.
Magda Argenta (projet CAPAS, CIDSP, EDF R&D), Dominique Le Roux (ingénieurchercheur au GRETS-EDF R&D pôle « sciences humaines et sociales ») : Problèmes
méthodologiques de la capitalisation et de l’analyse secondaire d’entretiens sociologiques
avec des CAQDAS.
Le pôle « Sciences humaines et sociales » de la R&D d’EDF (GRETS) s’est doté voici quelques années d’un outil
de capitalisation des entretiens sociologiques effectués avec des CAQDAS dans le cadre des études qui y sont
menées et qui portent sur des champs disciplinaires et des objets d’étude divers (sociologie des usages, analyses de
la controverse, sociologie des organisations…). Cette expérience a été menée à l’instar du dispositif britannique
d’archivage des données d’entretiens sociologiques mis en place dans le cadre du projet Qualidata. Au cours de
ces années d’expérience du projet Verbatim au GRETS, il a été acquis une pratique d’analyse secondaire de ces
entretiens grâce au développement d’une collaboration entre chercheurs, spécialistes de l’objet, analystes et
spécialistes de la méthodologie et des outils d’analyse. Nous présenterons ici les points essentiels des acquis
méthodologiques que nous pouvons tirer de notre pratique de la capitalisation et de la ré-utilisation des entretiens.
Débat avec la salle
17h00 Claude Dubar : Clôture de la journée
17h15 Pot de clôture
Inscription ou confirmation de présence obligatoire avant le 20 décembre 2005 par
courriel à [email protected]
Cette journée reçoit le soutien du GRETS-EDF, du LASMAS, du Site Pouchet et de la
revue « Langage et société »
Téléchargement