Communication interpersonnelle et communication personne

publicité
Chapitre 4
Communication interpersonnelle
et communication personne-système
4.1. Introduction
En informatique, la question de l’interface est souvent traitée en termes
« d’interaction homme-machine », ou même de « dialogue personne-système ».
L’usage largement métaphorique de ces termes conduit à se demander quel sens
donner à cette exportation, plus ou moins contrôlée, de concepts initialement forgés
pour rendre compte des pratiques communicationnelles interhumaines ? Que retient
la problématique de la communication personne-système de la complexité des
phénomènes de communication interpersonnelle ? Quelles capacités devrait
posséder un système informatique pour jouer le rôle d’un véritable interlocuteur ?
Pour esquisser une réponse à cette question, je procéderai le plus simplement
possible en analysant les concepts en cause dans leur champ d’origine : la philosophie
du langage et de la communication. Adoptant une perspective pragmatique, je
proposerai d’abord de définir la personne comme coagent d’un procès de
transactions et d’interactions. J’analyserai alors la communication interpersonnelle
dans ses dimensions transdirectionnelles et interactionnelles.
Ensuite, après m’être interrogé d’un point de vue à la fois historique et
typologique sur ce que l’on peut entendre par système, j’examinerai à quelles
Chapitre rédigé par Denis VERNANT.
74
Communication homme-système informationnels
conditions et selon quelles limites un système informationnel pourrait être conçu
comme un agent simulant une personne et capable de soutenir un dialogue avec un
humain pour réaliser conjointement une tâche déterminée.
4.2. La personne
Pour les Anciens, le logos signifiait à la fois raison et discours. Capacité de
raisonnement et de calcul sur des signes à des fins de connaissance, le logos était
aussi pratique du dialogue, usage social des signes à des fins de communication.
D’où, chez Aristote, une définition de l’homme comme animal sociable, politique.
Tenant cette dimension sociale pour première, nous adopterons une approche
faustienne selon laquelle au début était l’action1. Selon cette approche, la personne
peut être définie comme le coagent de transactions et d’interactions.
L’analyse de la personne comme agent peut schématiquement se résumer en
quatre points : réflexivité, rationalité, finalité et coopérativité, les trois premiers
reprenant des caractéristiques plus ou moins dégagées par les définitions
philosophiques du sujet. Ces caractéristiques sont ici réinterprétées et coordonnées
dans une perspective actionnelle.
4.2.1. La réflexivité
Descartes définissait le cogito par la capacité qu’a la pensée de se penser
pensante. Cette réflexivité est constitutive du sujet. L’homme est sujet dans l’exacte
mesure où il se saisit comme sujet et se sait sujet. Cette capacité de réflexion vaut
tout aussi bien pour la conscience que le sujet peut avoir de ce qui n’est pas lui : les
choses. A la suite de Brentano, Husserl définissait la conscience comme conscience
de... conscience de soi et conscience des choses. La réflexivité prend alors forme
d’ouverture, de visée. C’est ce que Husserl nommait intentionnalité.
Mais, en philosophes, aussi bien Descartes que Husserl, voyaient en la réflexivité
et l’intentionnalité des structures fondatrices et ultimes. Les analyses contemporaines
leur objectent la dépendance de ces traits de conscience à l’égard du jeu des signes,
du système social de la langue. Pour Benveniste, [BEN 66, p. 260], est ego qui dit
« ego ». La subjectivité se construit par et dans le discours. Dès lors, l’expérience du
cogito dépend des contraintes performatives du discours, [VER 86, p. 50-52 et p.
176-189], et la réflexivité de la conscience résulte d’un usage intériorisé, que nous
qualifierons d’intralocutif, des capacités interlocutives du discours2.
1. Goethe, Faust, première partie, cabinet d’étude.
2. Peirce : « La pensée procède toujours sous forme de dialogue entre les différentes phases de
l’ego », voir [PEI 31].
Communication interpersonnelle et personne-système
75
Quant à la conscience des choses, elle s’appuie sur les représentations symboliques
et la capacité référentielle des signes. Plutôt que de demeurer prisonnier de l’instant
où se présentent les objets, je peux, à loisir, réfléchir sur les « re-présentations »
d’objets absents, imaginaires ou impossibles. Ainsi l’intentionnalité a-t-elle une
dimension sémantique3. Toute représentation est représentation de quelque chose.
En dehors de sa valeur différentielle dans la langue, le signe est signe de quelque
chose, il possède une signification référentielle. In fine, le discours est discours sur
un monde. Si les signes déictiques assurent l’ancrage du dire dans le contexte de
l’énonciation, les signes référentiels garantissent la relation symbolique des signes
aux objets et événements composant une situation effective.
Toutefois, on prendra garde au fait que ce niveau représentationnel n’épuise pas
le sens. Par-delà leurs expressions symboliques, les états mentaux des agents
résultent d’intériorisation de schémas actionnels, pragmatiques. Comme l’avait
pressenti Peirce, les croyances des agents relèvent de dispositions à agir : « Toute la
fonction de la pensée est de créer des habitudes d’action4 » et leurs valeurs
s’interprètent en termes de raisons d’agir.
4.2.2. La rationalité
La deuxième caractéristique de l’agent est sa rationalité. Indépendamment de la
question de la limitation de cette rationalité, il faut supposer que l’agent est
rationnel, qu’il agit par calcul. On sait le destin de cette idée de calcul et l’essor – à
l’origine de l’intelligence artificielle – de l’idée leibnizienne d’un calculus
ratiocinator greffé sur une characteristica universalis, c’est-à-dire d’un calcul
formel sur des signes. Formalisée, symbolique, implantée informatiquement, la
3. [BRE 44, p. 102] : « Ce qui caractérise tout phénomène psychologique, c’est ce que les
scolastiques de Moyen-Age ont appelé l’inexistence intentionnelle (ou mentale) d’un objet.
C’est ce que nous pourrions appeler nous-mêmes – en usant d’expressions qui n’excluent pas
toute équivoque verbale – rapport à un contenu, à une direction vers un objet (sans qu’il faille
entendre par là une réalité) ou objectivité immanente. Tout phénomène psychique contient en
soi quelque chose à titre d’objet, mais chacun le contient à sa façon. Dans la représentation,
c’est quelque chose qui est représenté, dans le jugement quelque chose qui est admis ou rejeté,
dans l’amour quelque chose qui est aimé, dans la haine quelque chose qui est haï, dans le désir
quelque chose qui est désiré, et ainsi de suite ». L’objet brentanien est ainsi
« in-existant » dans l’esprit. Roderick Chisholm, [CHI 56], popularisera une version
linguistique qui en fera l’objet extérieur visé. L’enjeu est alors celui sémantique de la
référence du signe à l’objet, et de son sens entendu, selon Frege, comme « mode de donation
de la référence ». Les expressions intentionnelles s’avèrent alors intensionnelle en ce qu’elles
ne satisfont plus le principe d’extensionnalité qui autorise la substitution des identiques et la
généralisation existentielle, voir [VER 86, p. 119-136].
4. Voir [PEI 31, p. 5 400]. Peirce s’inspire ici d’Alexander Bain.
76
Communication homme-système informationnels
logique déductive a prouvé sa fécondité. Mais, aujourd’hui, penser la rationalité de
l’agent, aussi bien que celle des transactions sur le monde et des interactions
communicatives entre agents exige un raisonnement pratique, une logique entendue
comme méthode, c’est-à-dire étymologiquement comme étude des voies et moyens.
Il s’agit de découvrir les principes (par exemple d’économie) et les règles permettant
à l’agent d’intervenir sur l’enchaînement causal des événements du monde. Est
requise une praxéologie comme étude de la planification des actions. A la différence
de la rationalité logique qui s’avère pur calcul théorique, la rationalité praxéologique
est raisonnement pratique soumis à des fins.
4.2.3. La finalité
La troisième caractéristique met en jeu la finalité des actions. La personne
réfléchit et calcule sur les moyens à utiliser en fonction des fins qu’elle s’assigne. Ici
intervient la dimension du devoir régissant la détermination des fins et le choix des
moyens. L’agent agit en fonction de normes et de valeurs dont il revient à
l’axiologie de déterminer les modalités de constitution sociale. Aussi l’agent se
soumet-il une déontologie précisant les règles morale de ses actions. A ce titre, il est
responsable.
En fonction des valeurs adoptées, l’agent construit un projet. A partir du constat
d’un manque, d’un besoin à satisfaire, il s’assigne une tâche qui constitue un
problème pratique à résoudre par l’action. Analysée, cette tâche se décompose en
objectifs, buts et sous-buts qui vont orienter la réalisation d’une stratégie d’action.
Chacune des actions effectuées prendra sens en fonction du but qu’elle vise, de
l’intention qu’elle réalise. On atteint ici la seconde dimension de l’intentionnalité
qui est proprement pragmatique et relève d’un projet5. Est alors requise non la
logique causale de l’enchaînement des événements, mais la téléologie des actions :
leur explication projective par l’intention, l’objectif visé.
Jusqu’à présent, les trois caractères dégagés valent pour un agent isolé. L’erreur
de Descartes et de maints philosophes à sa suite (dont pour une bonne part Searle)
est d’en rester à un sujet autodéterminé, tombant ainsi dans le solipsisme. L’agent
n’est pas premier, il ne peut se comprendre per se, isolément. Il convient de le
concevoir d’emblée comme coagent d’un procès commun. D’où le dernier caractère,
crucial : la coopérativité.
5. En anglais, le terme purposive spécifie ce sens pragmatique d’intentional. Pas plus qu’il
n’est capable de dialoguer, l’animal grégaire, par exemple les abeilles, n’agit selon un projet
et ne coopère comme l’homme, voir [BON 94].
Communication interpersonnelle et personne-système
77
4.2.4. La coopérativité
L’être est relation. La biologie et l’éthologie nous enseignent que l’animal ne se
définit qu’en relation avec son environnement. En tant qu’organisme, l’être humain
semble relever de la même analyse. Mais, en fait, comme être de culture, l’homme a
profondément transformé son environnement par la technique, et surtout il s’en est
donné une représentation pour en faire un monde, plus précisément pour construire
une multitude de mondes imbriqués. De tels mondes sont le résultat historique,
partant contingent, de constructions sociales résultant d’une multitude de
transactions. Dès lors, il faut concevoir la personne non comme un agent isolé, mais
comme un coagent immergé dans une situation historiquement déterminée qui
compose un champ de transactions où, avec d’autres agents, il instaure un rapport
aux mondes.
De telles situations ne sont pas nécessairement inédites. Lorsqu’elles se répètent,
que les rôles des agents se stabilisent, et que les stratégies se traduisent en
procédures acquises, ces situations se cristallisent en scénarios stéréotypés6. Il
demeure toutefois que toute situation compose le contexte actionnel d’une
coopération entre les coagents 7. Ainsi, toute action humaine répond à un principe de
coopération qui fixe les règles positives de toute transaction possible. Les agents
sont supposés capables, individuellement d’agir selon des buts en y adaptant les
moyens, et collectivement de corréler leurs actions en s’accordant sur des finalités
communes. Les modes de coopération peuvent différer, mais l’essentiel est
qu’actions et réactions soient coordonnées. Le partage des fins peut impliquer le
partage des actions, les acteurs concourant à la même action : deux forestiers
peuvent débarder en commun une bille de bois en la tirant avec une corde. Les
acteurs peuvent aussi conjointement effectuer des actions complémentaires, comme
lorsque des bûcherons abattent un arbre au passe-partout. Ou bien, ils peuvent
enchaîner l’une après l’autre leurs actions : le scieur de long n’intervient qu’après
l’abatteur et le débardeur. Tout ceci suppose une planification qui détermine
l’enchaînement des buts et sous-buts et l’élaboration d’une stratégie8.
Mais, sous peine de faire de l’angélisme, la coopération entre agents peut aussi
prendre des formes négatives. Les règles de coopération peuvent être tournées ou
6. Que l’on pense par exemple au scénario qui conditionne les transactions et interactions
dans un restaurant. On notera qu’au niveau élémentaire les dispositifs d’action, généralement
corporels, n’ont pas à faire l’objet d’une décision. Si je décide de répondre au sommelier qui
me somme (en vertu des pouvoirs que lui confère le scénario) de goûter le vin, je ne décide
pas de tendre le bras vers le verre, le saisir, le porter à mes lèvres, boire une gorgée, etc.
7. Pour Grice lui-même, le principe de coopération, loin de se restreindre aux seules
conversations, vaut pour toute forme d’action rationnelle, [GRI 75, p. 62-63].
8.Dans [VER 97], nous définissons l’action ainsi que les différentes formes de coopération :
actions collectives : communes ou conjointes.
78
Communication homme-système informationnels
même violées explicitement lorsque les acteurs s’opposent sur les fins. De même
que les règles constitutives de l’acte d’assertion autorisent et donnent un sens
pragmatique au mensonge, [VER 97, p. 59-86], les règles de coopération donnent
sens à toutes les stratégies de ruse, de manipulation, de compétition, et de conflit.
Clausewitz concevait bien la guerre comme la continuation de la politique par
d’autres moyens, donc comme une forme négative de coopération. Ce qui fonde
l’entraide autorise aussi la lutte.
On appellera transaction toute action qui constitue un coup dans ce jeu
coopératif entre les coagents pour transformer leurs mondes. Les règles de ce jeu
contribuent à compléter la signification des actions. On a vu qu’une action trouvait
signification dans l’intention de l’agent. Mais cette intention n’existe pas ex nihilo,
elle résulte de la position assignée à l’agent dans la situation qui le met en relation
avec les autres agents dans leurs mondes communs. L’action acquiert signification
praxéologique comme coup dans un jeu transactionnel.
4.3. La communication interpersonnelle
Ayant défini la personne, nous pouvons maintenant analyser rapidement les
aspects transactionnels puis interactionnels de la communication entre personnes.
4.3.1. Finalité transactionnelle de toute communication
Toute communication interpersonnelle doit d’abord être située dans un cadre
transactionnel. La dimension transactionnelle de l’analyse prend en compte les
relations complexes qui lient l’interaction communicationnelle comme pratique
langagière aux activités non langagières dans lesquelles elle s’inscrit. L’interaction
communicationnelle est une activité hétéronome : elle n’a généralement pas sa
finalité en elle-même9. Elle constitue une action langagière qui vise à provoquer
une transaction non langagière. On s’informe des horaires SNCF pour prendre le
train, pour atteindre une ville, pour participer à un colloque, pour faire une
communication, pour... etc. Dans cette perspective transactionnelle, l’interaction
communicationnelle constitue une pratique langagière de coopération entre des
agents qui vise la constitution de connaissances, l’accord sur les fins et les moyens
pour permettre la réalisation d’actions, communes ou conjointes, sur un monde.
Aussi distinguera-t-on dans cette dimension transactionnelle ce qui met en jeu les
relations entre coagents, puis leurs relations aux mondes qu’ils construisent.
9. [HAB 97] isole des actes purement linguistiques, ce qui le conduit à séparer arbitrairement
un agir communicationnel, orienté vers une pure intercompréhension et un consensus, d’un
agir stratégique, lieu d’affrontement des intérêts, orienté vers le succès.
Communication interpersonnelle et personne-système
79
4.3.1.1. Transactions intersubjectives
On a vu en définissant l’agent que la subjectivité se constituait dans et par
l’usage du discours (voir 4.2.1). Mais, il convient maintenant de préciser que la
subjectivité ne peut se définir que comme intersubjectivité constituée dans et par un
échange discursif gouverné par les règles sociales d’usage de la langue. Le dialogue
est constitutif des sujets parlants. Selon Benveniste, est sujet qui dit je à un tu10.
Ainsi, l’agent doit être pensé comme coagent d’un procès dialogique.
Fondamentalement, est ici en cause la substitution de ce que Francis Jacques,
[JAC 82] appela le primat de la relation (primum relationis) à toute interprétation
prédicative héritée de la logique scolastique. C’est ce qu’exprime dans le vocabulaire
les préfixes dia de dialogue, ou inter dans interlocution. Dans l’approche monologique,
le statut du locuteur, comme personne autoconstituée à laquelle on peut prédiquer
croyances et intentions propres, relève de l’illusion cartésienne d’un cogito qui
s’appréhende dans l’expérience réflexive de la pensée pure. Au contraire, dans la
perspective dialogique, les interlocuteurs se constituent mutuellement dans une
relation de subjectivation essentiellement dialogique.
Tout dialogue instaure le moment crucial où l’intersubjectivité se construit
et s’explicite dans et par la réflexivité du langage et la réciprocité du procès
dialogique. Mais les interlocuteurs du procès dialogique sont aussi et d’abord
les coagents du procès transactionnel. Comme tels, ils sont tributaires d’une
situation qui les détermine dans leurs statuts et rôles en même temps qu’ils
contribuent ensemble à la modifier. Une telle dépendance est attestée en psychologie
du développement : la transaction première mère-enfant produit progressivement
les capacités d’interaction communicationnelle de l’enfant en même temps que
son statut d’interlocuteur11.
Dans cette perspective, l’objet premier du dialogue est celui de la transformation
mutuelle des états mentaux des interlocuteurs : de leurs croyances et connaissances
(dimension cognitive), de leurs désirs et intentions (dimension volitive), de leurs
valeurs et interdits (dimension axiologique) ainsi que de leurs sentiments et
émotions (dimension affective). A ce niveau, la coopérativité met en jeu les
caractéristiques psychologiques et sociales des interlocuteurs. En plus des
informations contenues dans l’échange verbal, les éléments prosodiques du
dialogue oral (ton, rythme, etc.), mais aussi les gestes, postures, mimiques et
regards fournissent des indices de ces transactions interpersonnelles. Sont en
cause les places et les faces, les statuts et images, bref, la manière dont les
10. [BEN 66, p. 260] : « Je n’emploie Je qu’en m’adressant à quelqu’un, qui sera dans mon
allocution un tu ».
11. Ceci explique le « mystère » de l’acquisition rapide du langage par l’enfant, voir par
exemple l’analyse des thèses de Jérôme Bruner par Sandra Laugier, [LAU 92].
80
Communication homme-système informationnels
coagents explicitent et négocient dans et par l’interaction communicationnelle leur
reconnaissance mutuelle d’interlocuteurs12.
4.3.1.2. Transactions intramondaines
De même que c’est dans et par le dialogue que les coagents se coconstituent
comme interlocuteurs, c’est dans et par le dialogue qu’ils élaborent leurs croyances
et connaissances mutuelles relatives aux mondes qu’ils construisent ensemble par
leurs transactions effectives. Est en cause ici l’abandon du dogme
représentationnel – ou ce que Austin, [AUS 70, p. 39], appelait « l’illusion
descriptive » – selon lequel le discours aurait pour objet privilégié de fournir une
représentation vraie du monde, d’une réalité unique supposée donnée indépendamment
de tout procès dialogique. Techniquement, un des enjeux est celui de la définition de
l’assertion. Déjà Peirce indiquait que l’assertion, contrairement à sa définition
logique – telle que, par exemple, elle est encore admise par Searle13 – n’est pas
l’expression par le locuteur d’une proposition vraie en ce qu’elle correspondrait à un
fait du monde, mais un engagement à l’égard de l’allocutaire sur sa croyance
relativement à un monde sur lequel ils s’accordent14. La question n’est alors plus
celle de la vérité, mais de la véridicité ainsi que de la véracité et du partage des
croyances15. De même, pour le « second » Wittgenstein, la question du rapport au
monde se traite en termes de jeux de langage et non de correspondance des mots aux
choses, des propositions aux faits. Et Wittgenstein visait précisément cette
dimension transactionnelle lorsqu’il parlait non de l’usage purement linguistique,
mais de l’utilisation (Gebrauch) effective du langage dans sa dimension actionnelle :
« Ce que nous disons reçoit son sens du reste de nos actions », [WIT 65, p. 229].
Par le dialogue, les coagents explicitent et négocient la signification de leurs
actions, interprètent la situation dans laquelle ils agissent et construisent une « vision
du monde ». Cette vision du monde ne doit pas être confondue avec les
Weltenschauungen purement intellectualistes des philosophes. Elle constitue une
explicitation de connaissances et de croyances tributaires de schèmes d’action, des
pratiques d’intervention sur les mondes. On retrouve ici la « forme de vie »
wittgensteinienne dans laquelle s’inscrit tout jeu de langage. Ces formes de vie sont
techniquement et socialement déterminées. Elles varient dans l’espace et dans le
12. C’est ici qu’interviennent par exemple les règles de politesse, voir Catherine KerbratOrecchioni : « Variations culturelles et universaux dans le fonctionnement de la politesse
linguistique ».
13. Voir [SEA 85a] : « le but de l’assertif est de rendre le contenu propositionnel conforme au
monde », lexique, p. 325.
14. Voir « Toute assertion enveloppe un effort pour que l’interprète visé croie ce qui est
asserté et, à cette fin, il faut lui fournir une raison de le croire » [PEI 31] et [CHA 91].
15. Sur l’analyse de l’assertion en termes de contrat de véridicité et véracité, voir [VER 86,
p. 59-85].
Communication interpersonnelle et personne-système
81
temps. Il y a belle lurette que l’on n’abat plus les arbres au passe-partout et, dans nos
sociétés, on n’a jamais utilisé l’éléphant comme agent de débardage !
On atteint là le soubassement proprement culturel et anthropologique du sens des
actions humaines, « l’arrière-plan » ultime que Wittgenstein appelait « l’image du
monde16 ». Elle est une réalisation collective résultant des interactions langagières
comme des transactions non langagières17. Dès lors, chaque monde est provisoire et
existe une pluralité de mondes, voir [GOO 78]. Le monde de la vie quotidienne qui
est en question dans la plupart de nos conversations a peu de rapports avec le monde
des physiciens en jeu dans les controverses en théorie quantique, etc. On comprend
alors pourquoi la vérité ne peut plus se définir en termes de correspondance du
discours au réel, mais doit faire l’objet d’une conceptualisation proprement
pragmatique18.
L’analyse de cette dimension de transaction sur les mondes s’appuie
naturellement sur les données linguistiques fournies par le dit du locuteur19 comme
sur des indices non langagiers tels que le contexte énonciatif et dialogique, la
situation des interlocuteurs 20, ainsi que l’arrière-plan actionnel fourni par les formes
de vies impliquées et l’image du monde qui leur donne sens.
16. « Mais cette image du monde, je ne l’ai pas parce que je me suis convaincu de sa
rectitude ; ni non plus parce que je suis convaincu de sa rectitude. Non, elle est l’arrière-plan
dont j’ai hérité sur le fond duquel je distingue entre vrai et faux », [WIT 65, prop. 94].
17. Selon Searle, cet arrière-plan est « pré-représentationnel » et se déploie, de façon holiste,
en « réseaux », voir [SEA 85a, chapitre 5]. Comme il développe une conception strictement
représentationnelle du sens, on voit mal comment peut être exploité cet arrière-plan. Ce hiatus
disparaît si l’on adopte pour le sens, les croyances, etc. une conception actionnelle. Sur les
ambiguïtés de la conception searlienne du background, voir [STR 91].
18. Voir par exemple, [WIT 65, p. 204] : « Mais le terme, ce n’est pas que certaines
propositions nous apparaissent à l’évidence comme vraies immédiatement, donc ce n’est pas
de notre part, une sorte de voir ; le terme, c’est notre action qui se trouve à la base du jeu de
langage », De la Certitude, p. 204. Voir aussi [VER 98a] article cible et « Réponses aux
objections : D’où nous viennent donc ces merveilleux brouillards bistrés ».
19. Par exemple, « Le bateau coule » décrit une action non linguistique dont le sujet n’est pas
l’agent de l’acte de discours. Pour une prise en compte de la distinction entre dire et dit, agent
et sujet, voir [VER 97, chapitre 3].
20. Nous distinguons : le texte (trace écrite du dit), le cotexte (nécessaire pour analyser les
anaphores et les phénomènes métadiscursifs), le contexte énonciatif (entièrement centré sur la
personne du locuteur, le lieu et le temps de son énonciation et sa manière d’appréhender les
objets et événements (voir la modalisation et les phénomènes de thématisation où le locuteur
exprime son point de vue sur la situation, exemple actif/passif, ou « Le verre est à moitié
vide/moitié plein »), le contexte dialogique (historique de l’interlocution), la situation
(composée des agents, d’un espace et temps objectifs, des objets comme instruments ou
matériaux, des actions), le monde en cause (dans sa dimension descriptive d’image du monde
et opérative de forme de vie).
82
Communication homme-système informationnels
Ayant esquissé les déterminations transactionnelles de toute interaction
communicationnelle, il reste maintenant à appréhender le procès dialogique dans ce
qu’il a de spécifique.
4.3.2. L’interaction langagière
L’analyse de la communication interpersonnelle prend en compte la dimension
spécifiquement interlocutive, c’est-à-dire l’interaction proprement langagière21.
On a vu que le dialogue, en tant que fondamentalement hétéronome, est
dépendant de ses finalités transactionnelles extrinsèques. Comme le soulignait
Grice, tout dialogue a au moins un but22. Ce but, accepté d’emblée ou négocié,
justifie l’interaction et lui assigne un cadre actionnel. Par exemple, dans une
conversation à bâtons rompus les tours de parole sont négociés et le choix des
thèmes de l’échange est subordonné à la captation de l’intérêt de l’interlocuteur. Il
en va tout autrement dans le cas d’un interrogatoire de police ! Les tours sont
prédéfinis, les thèmes imposés et il ne s’agit plus de séduire l’interlocuteur ! La
finalité transactionnelle mettant en jeu aussi bien les relations entre les personnes
que leurs actions sur un monde conditionne directement le dialogue.
Toutefois il importe, sous peine de graves confusions, d’isoler pour l’analyse le
moment langagier comme forme spécifique d’interaction répondant à des contraintes
particulières. L’interaction langagière vise indirectement, et plus ou moins
médiatement, la transformation d’un monde par le truchement d’une action d’autrui
provoquée par l’échange d’informations. Le message d’alerte du capitaine : « Le
bateau coule » provoquera la réalisation par l’équipage d’un scénario d’évacuation
du navire. Dans ce cas, le « dialogue » sera réduit au minimum puisqu’à l’acte
linguistique correspondra quasi automatiquement une réaction non linguistique.
Mais, dans les cas où il faudra persuader, convaincre, menacer, etc., autrui afin
d’obtenir sa réaction, le dialogue sera d’autant plus complexe. Les différentes
formes de dialogue pourront alors se caractériser comme des stratégies coopératives
complexes régies par des règles plus ou moins strictes. La question vive est alors de
rendre compte de la dynamique propre de l’interaction, des règles du procès
21. Le terme d’interlocution, apparemment approprié, ne rend pas compte de notre approche
résolument pragmatique, actionnelle. De plus, il pourrait laisser croire que n’interviennent que
les aspects proprement verbaux au détriment des indices paraverbaux et non verbaux de
l’interaction que nous incluons sous le vocable de « langagier ». Il y a un langage du
regard – important dans la négociation des tours de parole – comme un langage du corps.
22. La conversation de salon n’échappe pas à la règle, simplement son but est purement
phatique : est principalement en jeu la dimension intersubjective de la transaction et non
l’intervention sur un monde.
Communication interpersonnelle et personne-système
83
dialogique. Sans pour autant prétendre apporter réponse, je suggère une approche
projective de l’interaction langagière.
Une approche projective
Sous sa forme première, le dialogue utilise le médium sonore, la parole. Or celleci, à la différence du chant, n’autorise pas le canon, la coïncidence temporelle des
expressions. Dès lors, celui qui prend la parole, prend le pouvoir. Il en résulte que
l’interaction est gouvernée par une règle d’alternance de cette prise de parole23.
L’alternance des tours de parole, objet des analyses ethnométhodologiques, fournit
la structure de surface du dialogue, voir [GOF 87]. Mais cette contrainte structurelle
superficielle ne saurait rendre compte de la dynamique du procès dialogique luimême.
A l’intérieur du cadre transactionnel, l’interaction se déploie selon ses propres
contraintes. Par opposition à son autre radical qu’est le déchaînement brut de la
violence, le dialogue, sous toutes ses formes – y compris agonales : négociations,
débats, joutes oratoires, etc. – suppose toujours un accord de coopération portant sur
des finalités, scénarios et stratégies proprement interactionnels. Ceci ne veut
cependant pas dire que la finalité dialogique soit nécessairement le consensus, la
construction d’un accord sur les croyances, les valeurs, les intentions24. Pourtant,
même lorsque règne le « dissensus », le dialogue ne peut se poursuivre que si les
débattants ne se muent pas en combattants et jouent le jeu dialogique en acceptant
les règles de l’affrontement verbal : arma cedant verbis. Ils partagent un modèle de
l’interaction. C’est ce modèle, plus ou moins conscient25, qui sert à régler le procès
dialogique, à apprécier la fonction et l’acceptabilité dialogique de chaque prise de
parole. En tant que représentation possédée par chaque interlocuteur, il assure le
guidage des interactions. D’où son caractère projectif : en fonction du but, il
détermine les attentes comme les réactions des interlocuteurs.
23. Naturellement, dans les dialogue oraux animés, cette règle n’est pas toujours respectée,
d’où des chevauchements de prise de parole. Ceci témoigne du fait que même dans le cas de
coopération positive (exemple discussion entre amis) des enjeux de pouvoir perturbent
toujours un déroulement idéalement irénique. Au niveau interactionnel, existe un « primat du
Je », voir [BEN 66]. Cette asymétrie est souvent renforcée par une asymétrie des positions,
des connaissances, etc.
24. C’est l’erreur d’Habermas qui érige ce cas irénique en « situation idéale de parole » où,
par la seule vertu de l’argumentation dialogique, on parvient à fonder, au moins
théoriquement, un consensus social.
25. Lors d’une campagne électorale, les règles du débat télévisé font l’objet d’une négociation
préalable explicite et minutieuse. L’enjeu n’est manifestement pas un accord théorique ou
pratique mais l’affrontement des personnes, voir [TRO 94]
84
Communication homme-système informationnels
Dans cette perspective, le dialogue ne se caractérise pas comme forme dialogale
ou même structure d’échange, mais comme processus ouvert et activité située26.
Chaque dialogue effectif, en tant que communication orale entre deux interlocuteurs,
est un phénomène unique, a priori imprévisible. La difficulté est alors de rendre
compte de la dynamique complexe du dialogue. Pour appréhender le procès
dialogique effectif au cours d’un dialogue oral personne-personne et satisfaire
l’exigence d’une maîtrise d’une communication personne-système qui nécessite une
gestion dynamique « en temps réel » des échanges, nous proposons trois niveaux
d’analyse : celui du modèle projectif, des interactes, enfin des actes de discours.
Premier niveau : l’interaction doit d’abord être appréhendée dans son unité
projective. Comme activité humaine, l’interaction communicative relève d’une
explication téléologique le but de l’interaction est sa raison d’être. Ce but, en
fonction du problème à résoudre et des questions qu’il soulève assure l’unité du
procès dialogique. Sur le fond des contraintes transactionnelles extrinsèques
qu’impose la situation, le dialogue se déroule à partir d’une projection opérée par
chaque interlocuteur sur la finalité, la thématique, les stratégies dialogiques
intrinsèquement admissibles. Le modèle projectif fournit le cadre général de
l’interaction dialogique. Nous avons proposé pour exemple un modèle simplifié
d’un dialogue informatif élémentaire ; nous y reviendrons (voir 4.5.2).
Deuxième niveau : dans ce cadre, le procès dialogique se déploie en actions et
réactions qui se répondent pour former des interactes27. Dans sa perspective
foncièrement monologique, Austin ignora cette dimension, toutefois il dut
admettre – sans en tirer toutes les conséquences théoriques qui s’imposaient – que
certains actes contractuels ne peuvent être unilatéraux : un pari implique son
acceptation par l’auditeur28.
Chaque prise de parole par un interlocuteur constitue une proposition d’action à
l’intérieur de l’espace projectif du dialogue. Elle constitue une proaction
(feedforward), un engagement du locuteur à partir des contraintes transactionnelles,
de ses attentes et d’hypothèses sur les croyances, valeurs, intentions de l’allocutaire.
La réaction de l’allocutaire vient ou non ratifier cette proposition et entériner ou non
les choix interactionnels qu’elle suppose. On voit ici le poids de la rétroaction (feedback) dans le contrôle et la régulation du procès dialogique. Mais cette rétroaction
26. Pour une analyse du dialogique, voir [VER 97, chapitres 5, 6, 7].
27. La notion wittgensteinienne de « jeu de langage » prend en compte, au moins
théoriquement, ce fait fondamental.
28. Voir [AUS 70, p. 65] « Ma tentative de faire un pari en disant, « je vous parie six pence »
échoue, par exemple, à moins que nous ne disiez « d’accord » (ou des paroles à peu près
équivalentes) ». La même chose vaut pour l’acte de donner un cadeau, nommer quelqu’un,
etc. Est en cause « l’accroc » dans la classification des échecs. L’interaction n’a pas ainsi
valeur générale.
Communication interpersonnelle et personne-système
85
est seconde par rapport à la proaction, l’anticipation téléologique que constitue la
proposition première du locuteur29. A inverser les facteurs, on s’interdirait
l’explication de la dynamique du procès dialogique pour n’atteindre qu’une
description structurale après coup, post festum. La dynamique du dialogue réside
ainsi dans cette adaptation réactive des interactes à l’intérieur du cadre projectif de
l’interaction.
Troisième niveau : reste un dernier niveau, celui des actes élémentaires de
discours. Selon notre approche pragmatique, les actes de discours ne valent que
comme abstractions théoriques relevant d’une analyse sémantique tant que ne sont
pas spécifiées leurs fonctions dialogiques effectives qui dépendent notamment de
leur place dans le dialogue, de la stratégie adoptée et du rôle dialogique du locuteur
qui les assument30. On distinguera donc la définition abstraite des actes de discours
telle qu’elle relève d’une classification de l’analyse des fonctions dialogiques qu’ils
prennent dans le procès interactionnel. Ainsi un acte assertif prendra des fonctions
dialogiques de réponse, réplique, remise en cause, etc. (voir 4.5.2).
Dans cette perspective, j’ai proposé une nouvelle typologie des actes de discours
qui puisse effectivement servir d’outil d’analyse du dialogique en assignant à
l’interlocuteur statut non d’autre locuteur, mais d’authentique allocutaire, et en
reconnaissant notamment la spécificité des actes métadiscursifs chargés d’assurer la
régulation du dialogue, Voir [VER 97, p. 43-58].
4.4. Communication personne-système
Ayant précisé ce que nous entendons par communication interpersonnelle, nous
pouvons aborder la communication personne-système et mesurer l’écart qui sépare
ces deux types d’interaction. Mais s’interroger sur la communication personnesystème exige auparavant que l’on précise les types de systèmes en cause. Mais,
plus encore, préalablement, il importe de caractériser le statut que l’on assigne aux
systèmes informatiques. Cette question préjudicielle s’avère nécessaire pour lever
29. C’est dans cette perspective projective qu’il est possible de réinterpréter « l’enchaînement
conversationnel » de [TRO 92]. Les anticipations initiales des interlocuteurs constituent le
cadre hypothétique et révisable du dialogue : chacun anticipe les connaissances de l’autre, ses
buts, les connaissances partagées, les représentations que l’un a de l’autre, etc.
30. Techniquement, on peut réinsérer dans le procès interactionnel et transactionnel l’analyse
tripartite de l’acte de discours. La dimension locutoire renvoie au texte et cotexte, à la coconstruction du sens (ambiguïté et métadiscursivité) et de la référence (anaphores). La
dimension illocutoire renvoie aux contextes énonciatif et dialogique pour déterminer la force
illocutoire (usage direct/indirect, implicatures, etc.). La dimension perlocutoire, embrayant
sur la situation permet de déterminer les attentes du locuteur (objectifs) et les résultats obtenus
(effets) et ainsi de caractériser la valeur transactionnelle de l’acte de discours.
86
Communication homme-système informationnels
les ambiguïtés épistémologiques issues de la problématique de l’intelligence
artificielle. Quel statut assigner à une machine intelligente ? Que signifie attribuer
une forme d’intelligence à une machine ? L’histoire de l’intelligence artificielle
montre que schématiquement deux attitudes épistémologiques sont possibles que
nous différencierons en émulation et simulation.
4.4.1. Statut épistémologique d’un système « intelligent »
4.4.1.1. L’émulation des fonctionnalités
On sait qu’à cette interrogation liminaire sur l’intelligence des machines, Alan
Turing, l’un des pères de l’ordinateur et de l’intelligence artificielle, apporta réponse
dès 1950 sous la forme de son fameux test qui précisément mettait en avant les
capacités communicationnelles de la machine31. Selon le test de Turing, on pourra
qualifier de pensante une machine capable de manifester le même comportement
qu’un homme dans un jeu de questions réponses au cours duquel un interrogateur
doit deviner le sexe de ses interlocuteurs cachés, l’homme ayant la possibilité de
développer des stratégies dilatoires. Sans vouloir ici revenir sur le contenu de ce test
et notamment son aspect dialogique généralement négligé32, considérons seulement
son statut épistémologique.
Globalement, il s’agit exclusivement d’un test comportemental : la machine
doit être capable de simuler le comportement d’un humain. Turing l’interprète
explicitement en termes behavioristes : la machine doit apporter une réponse identique
ou similaire à celle d’un humain devant la même situation. Elle doit être capable
d’agir, de réagir, mieux d’interagir opportunément. Sont alors en cause les résultats
observables et non les processus internes qui les engendrent. Ce point est important
car il manifeste qu’il ne s’agit pas de prétendre que la machine procède de la même
façon que l’homme, mais qu’elle peut jouer le même rôle en recourant à des
procédures différentes. Pour prendre un exemple simple, si une pendule mécanique,
l’horloge parlante, une montre à quartz à cadran numérique (digital) ou analogique,
etc., donnent toutes la même heure pour autant qu’elles soient bien réglées, elles le
font pourtant selon des procédures et des moyens d’affichage fort différents.
L’identité – ou la similitude – des résultats est ainsi un critère différent – et plus
faible – que l’identité des modi operandi 33. On dira alors que la machine pense ou
31. Voir [TUR 83]. Soient un homme A et une femme B séparés par une cloison d’un
interrogateur C avec lequel ils communiquent par téléscripteur. C doit deviner le sexe de A et
B. Le « jeu d’imitation » consiste à substituer à A une machine.
32. Pour une analyse détaillée, voir [VER 97, chapitre 7].
33. Turing considère que le fait pour l’ordinateur comme le cerveau d’utiliser l’électricité
comme support des signaux constitue une « similitude très superficielle ». Il préconise plutôt
de chercher « des analogies mathématiques de fonctions », voir [TUR 83, p.45-46].
Communication interpersonnelle et personne-système
87
est intelligente si elle manifeste un comportement similaire au comportement
intelligent de l’homme. C’est en un même sens que l’on dira, par exemple, qu’une
machine voit lorsqu’elle est pourvue d’une fonction de vision, même si son
« organe » de vision diffère notablement de l’œil humain. Il suffit que cette fonction
de vision soit adaptée à ses finalités propres. La problématique est alors clairement
celle, technique, de réalisation d’un outil capable d’assurer des fonctionnalités
naguère encore l’apanage de l’homme. Dans cette approche, l’émulation machinique
porte sur des fonctionnalités.
4.4.1.2. La simulation des processus
Historiquement, l’abandon à partir des années soixante de cette perspective
étroitement behavioriste produisit une modification épistémologique substantielle :
on est passé d’un objectif d’émulation du comportement humain à une stratégie de
simulation où la machine réalise informatiquement la modélisation des processus
cognitifs gouvernant le comportement humain. Ouvrant la « boîte noire », on
s’intéressa à la compréhension des processus de raisonnement et de représentation
symbolique humains. Dès lors, n’importaient pas seulement la reproduction d’une
fonction humaine, mais les modalités de cette reproduction et leur éventuelle
vraisemblance psychologique. La machine fonctionnait comme réalisation
informatique d’une théorie qu’il s’agissait de tester à travers les modèles qu’elle
proposait. Le souci principal portait alors sur les hypothèses admises, les stratégies
mises en jeu, les procédures et formalismes utilisés. Ainsi, H.A. Simon, concevant
l’ordinateur comme un « système de symboles physiques », en faisait explicitement
un moyen de « simulation des procès cognitifs humains » 34. L’objectif explicite était
d’utiliser l’informatique comme moyen de tester expérimentalement des modèles
d’explication du comportement humain. Les simulations informatiques devenaient
« alors un outil important pouvant nous permettre une compréhension plus profonde
du comportement humain », voir [SIM 69, p. 22].
Dans cette perspective, sous peine de confondre le phénomène et sa
modélisation, on ne dira plus que la machine est intelligente mais seulement qu’elle
simule tel comportement intelligent. Plus précisément, la comparaison entre le
comportement de l’homme et celui de la machine fait place à un parallèle entre les
capacités cognitives de l’esprit humain et les aptitudes computationnelles du
programme informatique.
Dès lors, la communication personne-système peut être appréhendée de façons
fort différentes selon que l’on adopte l’une ou l’autre des approches possibles.
34. Voir [SIM 69, p.4] où Simon prend ses distances avec l’expression « d’intelligence
artificielle » lui préférant celle de « simulation des procès cognitifs ».
88
Communication homme-système informationnels
Selon la première où il s’agit simplement d’émuler les fonctionnalités, on
adoptera une perspective strictement ergonomique qui subordonnera l’échange
personne-système aux seules exigences de la tâche à réaliser.
La seconde approche sera plus ambitieuse dans la mesure où elle visera à simuler
informatiquement les capacités langagières et dialogiques de l’homme. On sera alors
dans une stratégie d’anthropomorphisation du système qui aura valeur de test
expérimental portant sur les modélisations théoriques des procédures humaines de
cognition et de communication (compréhension du langage naturel, compétence
dialogique, reconnaissance des visages, etc.).
Ayant ainsi caractérisé les attitudes épistémologiques possibles vis-à-vis des
systèmes « intelligents », venons-en à la distinction des types de systèmes possibles.
4.4.2. Les types de systèmes
De façon générale, on peut définir un système comme toute organisation
d’éléments matériels. Cette organisation peut s’avérer plus ou moins rigoureuse et
sophistiquée et la matérialité de ses éléments peut être plus ou moins marquée.
Ainsi, une langue est un système de signes, donc une organisation fortement
structurée d’éléments dont la matérialité est la plus évanescente : une image
acoustique. Schématiquement, nous résumerons l’histoire des systèmes techniques
qui intéressent notre problématique en trois temps : l’apparition des machines,
l’avènement des ordinateurs et des systèmes informatiques, la réalisation de réalités
virtuelles et de robots intelligents. Le mouvement de cette histoire des techniques se
caractérise par le fait que si la systématicité tend à devenir de plus en plus complexe,
le procès de dématérialisation qui inaugure la deuxième phase s’inverse lors de la
troisième phase.
4.4.2.1. Les machines
La machine apparut initialement comme le prolongement de la main humaine.
Elle fut porteuse d’outils et produisit les manufactures. Puis, associée à une
source d’énergie, elle remplaça la force humaine et permit la création des fabriques.
Dès lors, la machine put assurer par elle-même un travail, c’est-à-dire une
transformation de la nature. La rationalisation de ce travail permit une production de
masse qui détermina la structuration sociale, les échanges économiques, les
représentations idéologiques de nos sociétés industrielles de consommation. Malgré
son importance, ce machinisme n’a satisfait toutefois que les fonctions et les
finalités de l’homo faber.
Communication interpersonnelle et personne-système
89
4.4.2.2. L’ordinateur et les systèmes informationnels
L’apparition de l’ordinateur, à la faveur de la dernière guerre, constitua un
bouleversement majeur. Le mot même d’ordinateur témoigne de l’accroissement de
complexité et de la dématérialisation opérée. Il s’agissait désormais d’aider l’homme
non plus dans son effort de transformation de la nature, mais bien dans ses fonctions
intellectuelles supérieures de représentation, de calcul et de décision. La machine se
faisait machina sapiens ! S’ouvrait ainsi un procès d’humanisation des machines
dont témoigne la problématique de « l’intelligence artificielle » (IA). Primait dès
lors le concept d’information. La machine devenait capable d’un traitement du
signal et d’un calcul sur des signes entendus comme représentations non seulement
numériques, mais aussi et surtout symboliques. L’ordinateur constituait une machine
capable d’assister l’homme dans son labeur proprement intellectuel (SGBD, EAO,
PAO, CAO, etc.). Ses possibilités de raisonnement associées à la formalisation
d’une expérience en faisaient un outil d’aide au diagnostic et à la décision (systèmes
experts). Dans cette perspective, « l’interaction homme-machine » étant conçue
comme un échange réciproque entre un utilisateur unique et un système fermé dont
la puissance semblait en faire un véritable deus ex machina.
Devant les difficultés à réaliser rapidement les rêves de l’IA, face aux exigences
de l’organisation bureaucratique du travail intellectuel, et profitant des possibilités
offertes par le développement des réseaux d’information, on en vint dans les
dernières décennies à une conception de systèmes informationnels capables
d’assumer une fonction de médiation entre acteurs humains. A la fonction
d’assistance initiale s’ajoutait alors une fonction de gestion de la coopérativité entre
humains dans des tâches de haut niveau, par exemple de conception et de conduite
de projets. Dans cette approche coopérative (workflow), la question de l’interface se
complique singulièrement puisqu’il faut prendre en compte la multiplicité des agents
humains, leurs rôles, positions, pouvoirs différents, la répartition des tâches, la
gestion de l’information dans des espaces publics, véritables forums informatiques.
4.4.2.3. La réalité virtuelle et les robots
La troisième phase de cette histoire, qui s’esquisse à peine aujourd’hui, tente
d’achever l’humanisation des machines informatiques en opérant leur
rematérialisation. Globalement caractérisé, l’enjeu est celui du rapport de ces
machines au monde. L’ordinateur opère sur des symboles dont le statut de
représentation fait problème (voir 4.5.1.1). Une des manières de résoudre la question
est de construire des systèmes qui produisent effectivement un monde comme
référence de leurs représentations. C’est toute la problématique de la réalité
virtuelle. La machine construit en trois dimensions un monde artificiel qui peut
devenir, à des fins ludiques ou opératives, une réalité de substitution ou une réalité
« augmentée » pour l’utilisateur humain. Cette fois, l’homme pénètre le monde de la
90
Communication homme-système informationnels
machine, artefact de son propre monde. Ce ne sont plus les opérations intellectuelles
qui sont simulées, mais un monde lui-même.
Il est toutefois une autre manière d’apporter réponse à cette question du rapport
au monde. Il s’agit alors non de parfaire la représentation en construisant un monde
de substitution, mais de donner au système une matérialité telle qu’il puisse
effectivement agir dans notre monde. C’est tout le champ de la robotique avancée.
Pourvu de senseurs, le robot intelligent devient capable d’une authentique
transaction avec notre monde en termes de couplage perception-action. On retrouve
ici le rêve cybernétique d’une machine qui ne serait pas seulement automobile,
possédant, comme une voiture, sa propre force de locomotion, mais automate,
possédant sa propre capacité de pilotage. Dans cette perspective, la communication
homme-système change notablement qui imposera à terme d’envisager une
communication entre les robots eux-mêmes !
Comme on le constate aisément avec cette extrapolation, il est difficile de traiter
abstraitement la question de la communication avec les systèmes « intelligents »
sans spécifier à chaque fois le type de système en question. Notre petite et trop
rapide histoire des systèmes techniques n’avait d’autre fin que de nous fournir une
typologie commode.
Figure 4.1. Typologie des systèmes
4.5. Vers une communication personne-système
Nous pouvons maintenant traiter notre question de la communication personnesystème en précisant les enjeux et les limites de l’usage du terme de communication
appliqué à un échange entre l’homme et un système. Parler de communication
personne-système, c’est d’une façon ou d’une autre assimiler le système à un agent
possédant des capacités intertransactionnelles et transactionnelles semblables à
l’homme. Dans quelles conditions un système artificiel pourrait-il simuler plus ou
Communication interpersonnelle et personne-système
91
moins correctement les capacités communicationnelles et transactionnelles de la
personne humaine ?
4.5.1. Le système comme agent
La question de savoir si un système « intelligent » peut être considéré comme un
agent revient à s’interroger sur ses aptitudes à posséder les quatre caractères avec
lesquels nous avons défini la personne.
4.5.1.1. Réflexivité
Notre analyse de la réflexivité se résume en deux critères : la conscience de soi et
la conscience des choses. Un système intelligent peut-il alors manifester une
conscience de soi et une conscience d’un monde ?
Une réponse technique consiste à doter le système de fonctions méta. Ainsi, tout
système expert recourt à des métarègles pour assurer la gestion des priorités lors de
l’usage des règles d’inférence. De même, on peut prévoir qu’un système capable
d’une communication relativement sophistiquée devra posséder, outre un modèle de
l’interlocuteur, un modèle de lui-même lui permettant, notamment, de gérer son
champ de compétence et ainsi d’expliquer son incapacité à répondre à certaines
questions. Bref, on peut doter le système d’une représentation de lui-même et d’une
capacité d’autocontrôle.
Cette réponse technique pourra paraître aux yeux du philosophe trop modeste !
In fine, les objections de Searle contre L’IA se réduisent à cette question de la
conscience considérée comme phénomène biologique irréductible35. En fait, on
retrouve ici ce que Turing appelait « l’argument de la conscience » dont il montrait
qu’il conduit au solipsisme : « Selon ce point de vue extrême, la seule manière dont
on pourrait s’assurer qu’une machine pense serait d’être la machine et de ressentir
que l’on pense »36.
Reste alors la question de la conscience des choses, c’est-à-dire la capacité
sémantique des états mentaux à viser des objets, ou des signes à référer à des réalités
35. Voir [SEA 85b, p. 55-56] et [DEN 90, p. 431] : « Voila quelle est la croix de Searle : c’est
la conscience, et non la sémantique ». Dans [SEA 92, chapitre 9], Searle reprend son
argumentation de la chambre chinoise. La critique s’étend à la syntaxe redéfinie comme
relative à un observateur et tributaire d’une interprétation. Mais surtout la dimension
intentionnelle de l’interprétation et le pouvoir causal sont clairement attribués à la conscience
comme phénomène biologique concret, voir p. 216, 220, 222. Quoi qu’explicité, le nervus
probandi demeure le même que dans l’argumentation initiale.
36. Dans [SEA 92], Searle, considérant l’hypothèse d’un robot conscient, soutient que son
comportement ne saurait fournir le critère de sa faculté de conscience.
92
Communication homme-système informationnels
extralinguistiques. Ceci caractérise ce que nos appelons l’intentionnalité sémantique.
Les systèmes possèdent-ils cette capacité intentionnelle ? Je considère que la réponse
diffère selon que sont en cause des machines informatiques ou des robots.
Considérons d’abord les machines actuelles, les ordinateurs impliqués dans ce
que l’on appelle le « dialogue personne-machine ». Leur structure matérielle ne leur
permet aucune intervention directe et effective sur le monde réel. Leur mode
d’intervention demeure purement symbolique. On pourrait dire que leur contribution
se cantonne dans le champ de la représentation. Mais un philosophe sourcilleux
n’admettrait même pas cette affirmation. Car toute authentique représentation doit
être représentation de quelque chose. La signification symbolique requiert référence
au monde. Or les machines en question n’ont par elles-mêmes aucun moyen
d’instaurer un quelconque rapport référentiel au monde. Si elles utilisent des
symboles, elles ne possèdent aucune capacité symbolique ; si elles ont une mémoire,
elles ne possèdent aucun souvenir. Searle est alors fondé, avec sa fameuse
expérience de la chambre chinoise, à dire que les machines ne font que manipuler
des symboles vides de tout sens, qu’elles maîtrisent une syntaxe (d’ailleurs
relativement pauvre) mais aucune réelle sémantique37. La machine qui gère en
hypertexte une encyclopédie sur CD-Rom ne comprend pas plus que ne le fait un
simple livre ! Les machines « dialoguantes » ne possèdent aucun pouvoir référentiel.
Même si l’on parvient un jour à les doter de capacités interactionnelles
satisfaisantes, leurs capacités transactionnelles demeureront nulles. Par elles-mêmes,
elles ne seront capables d’aucune intentionnalité sémantique : d’aucune représentation
effective. Les machines informatiques, aussi sophistiquées soient-elles, demeureront
toujours de simples outils facilitant toutes les formes de traitements symboliques
opérés et interprétés par l’homme. C’est finalement l’utilisateur qui assigne
signification référentielle aux marques utilisées aveuglément par la machine38. La
machine n’a qu’une fonction médiatrice entre le concepteur et le(s) utilisateur(s).
Eux seuls assument la fonction référentielle des symboles utilisés.
Ainsi l’argumentation de Searle vaut-elle pour les machines. Toutefois, il en tire
une conclusion plus ambitieuse : il prétend disqualifier toutes les productions de
l’intelligence artificielle présentes et futures. C’est, selon moi, aller trop vite en
besogne et procéder indûment à des amalgames.
37. Voir [SEA 85b, p. 41-45]. A l’époque, Michael Polanyi objectait déjà à Turing que la
« fonction sémantique » ne pouvait être assumée que par un esprit humain, voir [POL 58].
38. On pourrait objecter par exemple qu’un programme de dessin d’architecture réalise
matériellement des plans sur l’écran, assimilable au monde de la machine. Mais les lignes,
courbes, etc. qui, bien évidemment, ont une réalité informatique en termes de configurations
de pixels n’acquièrent valeur de représentation que pour l’utilisateur. De même, un tableau
abstrait a bien une réalité matérielle, mais est dépourvu de toute fonction référentielle.
Communication interpersonnelle et personne-système
93
A la différence des machines, les robots possèdent une structure matérielle leur
permettant cette fois un mode d’intervention directe sur le monde : ils sont doués
d’un minimum de perception avec leurs senseurs, d’action et de réaction avec leurs
effecteurs. La problématique change alors car les symboles manipulés prennent sens
par la possibilité d’une référence effective aux objets du monde. Aux cubes
représentés selon le programme correspondent bien des cubes réels que le robot
perçoit et manipule. Dès lors, les robots acquièrent une sémantique minimale. Le
premier niveau de l’intentionnalité se trouve satisfait dans son principe : la capacité
référentielle. Ainsi, idéalement, les robots seraient capables d’une intentionnalité
sémantique !
4.5.1.2. Rationalité
La deuxième caractéristique, interprétée en termes de capacités de calcul et
d’inférence s’avère dès l’origine propre à l’ordinateur. L’intelligence artificielle
est précisément née de l’invention d’une machine capable non plus de calculs
numériques, mais d’inférences logiques sur des symboles pouvant recevoir de
multiples interprétations39. De façon apparemment paradoxale, toute la question a
été, pour simuler le comportement rationnel de l’homme, de limiter cette capacité
inférentielle de la machine ! C’est la question de la limitation de la rationalité,
[CHE 86]. Si la machine, laissée à elle-même, ne se contredit pas et est capable de
maîtriser toutes les conséquences de ses assertions, il n’en va pas de même de
l’homme qui est minimalement rationnel. D’où la nécessité d’affaiblir les
possibilités machiniques pour gérer l’incertitude et l’ignorance (voir par exemple les
logiques non monotones).
Ceci toutefois ne constitue que des aménagements de l’approche logique
désormais classique. Or, pour manifester les capacités rationnelles d’un agent la
machine doit pouvoir faire des inférences non seulement logiques, mais aussi
praxéologiques. Elle doit être capable de définir une planification et une stratégie
d’action. Rien du point de vue théorique ne s’oppose à ce que l’on puisse lui
assigner cette capacité. La question est cependant celle de l’élaboration de
formalismes pertinents en la matière (logiques dynamiques, logique de l’action, de
la planification, etc.).
4.5.1.3. Finalité
Doter un système « intelligent » de capacité de planification pose la question des
objectifs, des buts, bref, de la finalité de ses actions. Un système informatique est-il
capable d’intention, de projet, c’est-à-dire d’une intentionnalité pragmatique ?
39. En mai 1956, [NEW 57] inventèrent le premier programme logique capable de démontrer
des théorèmes du calcul des propositions. Pour une présentation des calculs logiques, voir
[VER 01].
94
Communication homme-système informationnels
Avant de répondre à cette question, remarquons d’abord que, dès lors qu’il
instaure une communication avec une machine présentant un minimum de capacités
dialogiques, l’utilisateur lui prête spontanément une aptitude intentionnelle.
L’utilisateur croit ou feint de croire que la machine répond en fonction d’intentions
relevant d’un projet propre. Dialoguant avec une machine, l’utilisateur infléchira
son comportement dialogique en fonction de la représentation plus ou moins
consciente qu’il se fait de cette machine. Généralement, la dimension phatique de
reconnaissance mutuelle propre à tout dialogue interhumain se trouve réduite au
minimum dans le cas d’un dialogue avec une machine. En témoigne par exemple le
fait que l’utilisateur se dispense des contraintes habituelles de la politesse, [BIL 92].
Manifestement, il sait qu’il a affaire non à une véritable personne, mais à une
machine. Pourtant, l’interaction n’est possible que si l’utilisateur joue le jeu
dialogique et fait comme si la machine réagissait comme une personne, un véritable
interlocuteur. En constituent la parfaite illustration les effets dialogiques puissants
provoqués chez certains utilisateurs par le programme Elisa, programme pourtant
caractérisé par sa totale indigence dialogique40. En fait, on a là l’exemple d’une
posture intentionnelle qui, selon Daniel Dennett, gouverne l’interprétation des
comportements humains, animaux et même machiniques41. Ainsi, l’utilisateur ne
peut dialoguer avec une machine que s’il lui attribue – réellement ou sur le mode du
comme si – une intentionnalité.
Dans la perspective ambitieuse de l’élaboration d’interfaces « intelligentes », on
peut prendre en compte cette posture intentionnelle en dotant la machine d’une
capacité à simuler correctement le comportement dialogique d’une authentique
personne. Ainsi, les recherches actuelles sur la gestion du « dialogue personnemachine » par les buts et les plans visent explicitement à prendre en compte les
intentions de l’utilisateur et donc à doter en retour la machine d’une posture
intentionnelle !
Nonobstant l’intérêt d’une telle stratégie de recherche, ceci ne répond pas à notre
question des capacités intentionnelles – au sens pragmatique du terme – d’un système.
Le philosophe pourra répliquer que, si intéressantes soient-elles, ces recherches
ont leurs limites philosophiques en ce que l’intentionnalité de la machine est une
40. Ce programme, censé simuler un entretien non directif avec un psychologue rogérien, fut
inventé en 1966 par Joseph Weizenbaum, voir [WEI 76].
41. Voir [DEN 90]. Cette stratégie relève de l’antique tropisme anthropomorphique qui, par
exemple, conduisit Aristote à attribuer des tendances aux objets en mouvement. Le fait que,
sauf exception, depuis Galilée nous récusons l’interprétation aristotélicienne du mouvement
des corps non animés montre que l’attribution intentionnelle est liée à une forme de vie.
Communication interpersonnelle et personne-système
95
intentionnalité d’emprunt42. Les intentions dont fera preuve la machine ne seront
que celles dont l’aura doté son concepteur et que lui prêtera son utilisateur. On
retrouve ici à propos de l’intentionnalité pragmatique ce qui valait pour
l’intentionnalité sémantique : la dimension d’artifice de « l’ intelligence » de la
machine. Celle-ci s’avère pseudo-personne, pur simulacre. La « personnalité » de la
machine n’est que l’ombre portée de la personne humaine qui la crée et qui l’utilise.
Toutefois, cette limitation ne semble valoir que pour une machine ou un système
informatique si sophistiqué soit-il. Qu’en est-il pour le robot ?
Un robot intelligent se caractérise par son autonomie projective. Il possède ses
propres objectifs, ses propres intentions. Un robot peut être programmé pour agir sur
les cubes qu’il perçoit43. Cette action, distinguée du pur événement que serait le
déplacement aléatoire du bras du robot, est soumise à une causalité téléologique :
elle répond à une intention, un but. Ainsi un robot peut-il posséder une
intentionnalité pragmatique minimale : la capacité d’agir sur le monde selon des
intentions et un projet propres. Dès lors se pose, ou plus exactement pourra se poser
pour le robot – et non la machine – la question axiologique de la valeur de ses
actions. Cette autonomie projective, qui pourra s’accroître par auto-apprentissage,
doit être contrôlée par un système de normes, de valeurs. Isaac Asimov avait prévu
ce cas en imposant à ses robots futuristes ses fameuses trois lois :
1) un robot ne peut porter atteinte à un être humain et doit lui porter assistance en
cas de danger ;
2) un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels
ordres sont en contradiction avec la première loi ;
3) un robot doit protéger son existence dans la mesure où cette protection n’est
pas en contradiction avec la première ou la deuxième loi, [ASI 50].
Ceci évidemment relève encore de la science-fiction, mais manifeste bien à
quelles conditions l’on pourra effectivement doter un système d’un réel comportement
téléologique et axiologique. Si la question de la responsabilité d’un ordinateur ou
d’un système informatique est proprement dénuée de sens, celle d’un robot se posera
peut-être un jour !
42. Je ne me prononce pas ici sur le débat intentionnalité dérivée/originelle. Par exemple, D.
Dennett considère que l’intentionnalité humaine est tout aussi dérivée que celle de la machine
dans la mesure où les hommes sont les artefacts de Dame Nature, voir [DEN 90, p. 390].
43. le fameux programme SHRDLU de Terry Winograd était capable de dialoguer et d’agir
sur un « univers des blocs » qui restait simulé, voir [WIN 72]. On peut concevoir que le
système agisse effectivement sur les cubes.
96
Communication homme-système informationnels
4.5.1.4. Coopérativité
On a vu que la personne humaine se définissait comme un coagent coopérant
avec d’autres agents dans un procès de transaction sur des mondes. Qu’en est-il des
systèmes ?
Les ordinateurs individuels ont un rôle d’assistance à l’utilisateur. Ils
interviennent comme outils intellectuels en mémorisant les données, calculant
sur celles-ci, et en contribuant à la réalisation de documents divers. Quant aux
systèmes informationnels distribué en réseaux, ils permettent en plus d’assurer une
médiation entre les divers utilisateurs. A ce titre, ils facilitent la coopération entre les
utilisateurs en gérant l’échange d’information, la répartition des tâches et des
activités. Mais, dans les deux cas, la capacité coopérative du système est
subordonnée à l’activité humaine et calquée sur ses propres besoins. Pour être
efficace, le système doit se conformer au principe et aux règles de coopération
qui gouvernent les transactions humaines. Mais ses actions possibles restent
étroitement tributaires de finalités humaines prédéterminées. Ainsi, ces fonctions
d’assistance et de médiation imposent généralement une coopération positive et
excluent toute stratégie négative.
Par exemple, on sait que Turing envisageait la possibilité pour les acteurs de son
test de développer des stratégies de dissimulation, de mensonge : que l’homme se
travestisse en se faisant passer pour une femme et que la machine se trompe
délibérément dans des calculs arithmétiques44. Les systèmes actuels sont construits à
partir de l’hypothèse du respect de la maxime de qualité selon laquelle les
interlocuteurs sont sincères, [GRI 75, p. 61], et donc selon laquelle l’interaction
dialogique est un procès purement rationnel. La feinte, le mensonge ne font pas
partie des capacités des machines actuelles. Sauf exception45, on voit mal en quoi des
stratégies dilatoires seraient nécessaires pour réaliser les buts qui leur sont assignés. A
quoi servirait une machine qui accepterait une réservation de billets d’avion pour un
vol imaginaire ou qui aurait pour dessein machiavélique de tromper systématiquement
l’utilisateur !
Pour qu’un système possède une réelle capacité de coopération, il faudrait une
fois encore faire l’hypothèse d’un robot intelligent pourvu d’une autonomie
décisionnelle et d’une indépendance dans le choix de ses buts. Seulement alors, un
tel robot pourrait éventuellement contrecarrer les actions humaines (dans les limites
44. Voir [TUR 83] : « Q : Ajoutez 34957 à 70764. - R : (Un silence d’à peu près 30 secondes,
puis la réponse est donnée) 105621 ». Dans la traduction française p. 41, l’erreur est rectifiée !
Voir aussi p. 55.
45. Pour répondre à des tentatives de vol, certaines interfaces des distributeurs automatiques
de billets de banque prévoient des stratégies dilatoires.
Communication interpersonnelle et personne-système
97
du respect des règles de Asimov !) et n’interviendrait pas comme simple assistant
et/ou de médiateur machinique.
Au terme de notre examen, il apparaît clairement que les systèmes actuels sont
loin de posséder toutes les caractéristiques requises pour en faire de véritables agents
semblables à la personne humaine. En particulier, les ordinateurs individuels et les
systèmes informationnels généralement utilisés ne possèdent qu’un minimum de
conscience de soi, n’ont ni intentionnalité sémantique ni intentionnalité pragmatique
et sont pourvus du minimum de capacité de coopération nécessaire pour en faire des
assistants ou médiateurs étroitement asservis aux besoins humains. Ainsi, l’usage à
leur propos de concepts valant spécifiquement pour l’homme demeure encore
largement métaphorique. Ce constat théorique n’ôte cependant rien à leur indéniable
intérêt technique. Mais il doit rester présent à l’esprit lorsque l’on s’interroge sur les
possibilités d’un « dialogue » ou d’une « communication » de la personne avec de
tels systèmes. Pour préciser les choses, abordons pour finir l’examen des capacités
interactionnelles et transactionnelles de ces systèmes.
4.5.2. Les capacités interactionnelles d’un système
Fournir une compétence dialogique à une machine revient, entre autres, à la
doter d’un modèle dynamique de dialogue capable de traiter en temps réel les
stratégies d’interaction communicationnelle.
Dans les cas les plus simples, il est possible de construire un modèle de dialogue
qui ait un degré raisonnable de prévisibilité. Un tel modèle joue le rôle de scénario
d’interaction. Le type le plus simple d’interaction communicationnelle est le
dialogue informatif élémentaire du genre interrogation d’une base de connaissances,
ou d’un service de renseignement. En réinterprétant dialogiquement le modèle
dynamique de Daniel Luzzati, [LUZ 92], j’ai tenté de montrer en quoi un dialogue
informatif élémentaire du type de demande de renseignement SNCF était gouverné
par un modèle projectif qui fonctionne comme un scénario implicite relevant de la
compétence communicationnelle des interlocuteurs et gouvernant a priori leur
comportement dialogique. Partagé ab initio par les interlocuteurs, ce modèle doit
permettre de prévoir les interactions pertinentes qui assurent la convergence du
dialogue et, a contrario, de mesurer les divergences et l’éventuel échec du dialogue.
On peut alors assigner aux actes de discours des fonctions dialogiques différentes
selon leurs places et rôles dans le procès dialogique. Ainsi, une assertion peut
prendre des fonctions dialogiques fort différentes selon le type de dialogue en cause,
et selon qu’elle est proférée par l’un ou l’autre des interlocuteurs à tel ou tel moment
du dialogue, [VER 97, chapitre 6]. Dans un dialogue informatif élémentaire, émanant
du répondant, une assertion pourra prendre fonction positive de réponse à une
98
Communication homme-système informationnels
question, ou bien fonction critique de réplique ou même fonction négative de mise
en cause qui atteint les présupposés d’un interlocuteur. Par exemple, si le demandeur
ouvre un échange par la question : « A quelle heure part le premier TGV pour
Viapres ? » la réponse pourra être : « A 12 h 46 », la réplique : « Que demandezvous ? », la mise en cause : « Il n’y a pas de TGV pour cette destination ! ».
Figure 4.2. Modèle projectif d’un dialogue informatif
Il est clair que ce modèle ne saurait s’appliquer à tous les types de dialogues, ni
même ne prétend rendre compte de dialogues informatifs impliquant des tâches un
tant soit peu complexes. L’interrogation d’une base de connaissances nous reconduit
au dialogue de Socrate avec l’esclave de Ménon, c’est-à-dire à une interaction de
forme dialogale mais à caractère très faiblement dialogique46. La machine joue le
rôle du maître : elle est celle qui sait et que l’on interroge. La considération
d’authentiques dialogues où l’enjeu est effectivement la coconstruction des
interlocuteurs et du monde (par exemple pour une tâche de conception) requiert une
modélisation autrement plus complexe. Les stratégies d’interaction sont alors moins
contraignantes si bien que le dialogue peut enchaîner des séquences fort diverses47.
La dimension dialogique est alors plus affirmée, les rôles ne sont plus prédéterminés
et dissymétriques, les stratégies s’avèrent multiples, les buts doivent être
conjointement déterminés. Les recherches actuelle sont pour objet de disposer de
modèles et algorithmes rendant compte exhaustivement du procès interactionnel mis
en jeu dans de tels dialogues complexes.
46. Sur la définition du dialogique et sa différence avec la forme dialogale, voir [VER 97,
chapitre 5].
47. [CAE 93] propose de distinguer six stratégies possibles : directive, réactive, négociée,
coopérative, constructive, et dirigée par les intentions.
Communication interpersonnelle et personne-système
99
Reste que, si sophistiquées soient-elles les stratégies interactionnelles sont
tributaires de finalités transactionnelles. Dès lors, les capacités dialogiques d’un
système sont dépendantes de ses aptitudes transactionnelles.
4.5.3. Ses possibilités transactionnelles
En l’état actuel des recherches, à l’inverse d’une conversation de salon à fonction
purement phatique, le dialogue personne-système est étroitement finalisé : il vise un
échange d’information en vue de la réalisation d’une tâche nettement spécifiée
(c’est-à-dire consultation d’horaires SNCF, réservation de billets d’avion,
conception de plans, etc.). On comprend alors que l’analyse pragmatique requiert la
considération de la tâche visée, la constitution d’un modèle de la tâche ayant pour
objet de spécifier le vocabulaire, les scénarios impliqués, les stratégies autorisées.
Une demande de réservation SNCF sera déterminée par le fait qu’un train est un
moyen de transport d’une gare à l’autre, individualisé par un numéro, qu’il possède
une heure de départ et d’arrivée, et de même par la connaissance de scénarios fixes
tel celui relatif à l’achat du billet, aux conventions de réservation de places, etc.
Considérer les seuls dialogues « orientés par la tâche » facilite grandement la
modélisation informatique dans la mesure où les stratégies de planification imposées
par une tâche clairement circonscrite ne mobilisent pas des connaissances d’arrièreplan démesurées. S’enquérir de l’heure d’arrivée d’un train ne requiert qu’un savoir
limité sur le fonctionnement des transports ferroviaires.
Mais même dans le cas où la tâche considérée est relativement sophistiquée – cas
d’une tâche de conception – on est encore loin du jeu d’imitation imaginé par Turing
dans la mesure où l’enjeu du dialogue est la découverte du sexe de l’interlocuteur48.
Une telle tâche n’est pas triviale. En effet, elle fait appel à une connaissance de
stéréotypes culturels qui tendent, dans nos sociétés où les marques de la différence
sexuelle s’estompent, à devenir de plus en flous. L’exigence ici est celle d’une
maîtrise d’un ensemble considérable de connaissances implicites. La difficulté est
telle qu’elle peut sembler irrémissible. C’est ainsi que l’interprète, par exemple,
Hubert Dreyfus : « Il est difficile de voir comment les diverses façons subtiles dont les
choses nous concernent peuvent être entièrement énumérées »49. La question ultime
48. Descartes imposait des exigences encore plus fortes : insistant sur le fait que « la raison
est un instrument universel qui peut servir en toutes sortes de rencontres », il récusait toute
limitation portant sur le thème et la finalité du dialogue, voir Discours de la méthode, 5e
partie.
49. [DRE 80, p. 741]. Fondamentalement, la question consiste à concilier une conception
strictement représentationnelle du langage avec le recours ultime à un arrière-plan non
représentationnel. Selon nous, seule une approche résolument actionnelle du langage est
susceptible d’éviter ce dilemme.
100
Communication homme-système informationnels
est celle de la modélisation des connaissances partagées par les interlocuteurs, la
formalisation du réseau d’arrière-plan qui donne sens actionnel aux actes de discours
effectués, et la possibilité pour le système d’accroître ce réseau par auto-apprentissage.
A la fin de son article, Turing envisageait la construction d’une « machineenfant » pourvue d’un système perceptif et actionnel, capable d’imiter le processus
social d’apprentissage [TUR 83, p. 61-67]. Les recherches actuelles en robotique
avancée portent sur des robots mobiles – telles les artificial creatures de Brooks
[BRO 91], – qui se programment par auto apprentissage lors de la transaction
dynamique engendrée par leur perception du monde et les résultats de leurs actions
sur celui-ci. L’objectif est alors clairement de doter le robot d’une capacité
transactionnelle autonome50. On aboutit alors à une conception actionnelle de
l’intelligence qui se dispense des difficultés de l’approche représentationnelle et
cognitiviste. Un robot qui serait capable d’interaction avec l’utilisateur et de réelle
transaction sur le monde constituerait une approximation pertinente de la « machineenfant » de Turing51.
4.6. Conclusion
Au terme, il s’avère que la question de la communication personne-système ne
saurait recevoir de réponse a priori. Tout dépend du type de système en cause. Les
systèmes « intelligents », nos ordinateurs, constituent de précieux auxiliaires dans la
recherche et la production des connaissances. Mais, par construction même, ils ne
sont capables ni d’intentionnalité sémantique ni d’intentionnalité pragmatique.
Parler à leur propos de dialogue ou de communication a valeur et fonction
métaphoriques. De tels systèmes n’ont manifestement pas les capacités
interactionnelles et transactionnelles leur permettant de jouer un véritable rôle
d’interlocuteurs. Cependant la métaphore s’impose – et se justifie
techniquement –dans la mesure où elle fonde la possibilité même d’une relation de
l’utilisateur avec le système informatique, cet utilisateur faisant comme si la machine
réagissait comme un véritable interlocuteur, et le concepteur s’appuyant sur cette
métaphore pour construire un univers partageable à la fois par la machine et
l’utilisateur. Il en ira tout autrement de la communication avec un système
effectivement autonome et capable d’un minimum d’interaction et de transaction.
Envisager des systèmes qui pourraient effectivement assumer le rôle d’interlocuteurs
dans une interaction communicationnelle reviendrait à les rendre autonomes et
capables d’intervenir par eux-mêmes dans leurs propres mondes. Avec la question
de la corporéité surgit alors l’antique thème de la liberté.
50. On retrouve là l’orientation initiale de la cybernétique, voir [ROS 61]. Les auteurs
tentaient de rendre compte de l’intention (purpose] en termes non mentalistes.
51. Dans son article, [BRO 91], Brooks situe explicitement sa démarche dans le prolongement
des réflexions de Turing, [TUR 83, p. 5], sur sa « machine-enfant ».
Communication interpersonnelle et personne-système
101
4.7. Bibliographie
[ASI 50] ASIMOV I., Robot, J’ai lu, Paris, 1950.
[AUS 70] AUSTIN J., Quand dire c’est faire, Seuil, Paris, 1970.
[BEN 66] BENVENISTE E., Problèmes de linguistique générale, Tome 1, NRF, Gallimard,
Paris, 1966.
[BIL 92] BILANGE E., Le Dialogue personne-machine, Hermès, Paris, 1992.
[BON 94] BONABEAU E., THERAULAZ G. (DIR.), Intelligence collective, Hermès, Paris, 1994.
[BRE 44] BRENTANO F., Psychologie vom empirischen Standpunkt, LI & II (1874), tr. Aubier,
Paris, 1944.
[BRO 91] BROOKS R., « Intelligence Without Reason », Artificial Intelligence, p. 1-27, 1991.
[CAE 93] C AELEN J., « Interaction homme-machine : théorie et pratique », 4e école d’été de
l’ARC-PRC CHM, juillet 1993.
[CHA 91] C HAUVIRE C., « PEIRCE, le langage et l’action », Les Etudes philosophiques, n° 1,
1979.
[CHE 86] CHERNIACK C., Minimal Rationality, Cambridge MIT Press, 1986.
[CHI 56] CHISHOLM R., « Sentences about Believing », Proceedings of the ARISTOTE in
Society, 56, 1956.
[DEN 90] DENNETT D., La Stratégie de l’interprète, Gallimard, Paris, 1990 (traduit par Pascal
Engel de The Intentional Stance, MIT Press, 1987).
[DRE 80] DREYFUS H., « Les ordinateurs peuvent-ils être vraiment intelligents ? », dans
Critique, Les Philosophes anglo-saxons par eux-mêmes, août-septembre 1980.
[GOF 87] GOFFMAN E., Façons de parler, Minuit, Paris, 1987.
[GOO 78] GOODMAN N., Manières de faire des mondes, J. Chambon, 1992, tr. par MarieDominique Popelard de Ways of Worldmaking, Hackette Publishing Company, 1978.
[GRI 75] GRICE P., « Logique et conversation », Communication, numéro spécial 30, Seuil,
Paris, juin 1979, tr. de « Logic and Conversation », dans P. Cole et J.L. Morgan (dir.),
Syntax and Semantics, vol. III, Speech Acts, Academic Press, 1975.
[HAB 87] HABERMAS J., Théorie de l’agir communicationnel, Fayard, Paris, 1987.
[JAC 82] J ACQUES F., Différence et subjectivité, Anthropologie d’un point de vue relationnel,
Aubier, Paris, 1982.
[KER 97] KERBRAT-ORECCHION I.C., « Variations culturelles et universaux dans le
fonctionnement de la politesse linguistique », Le dialogique, sur les formes
philosophiques, littéraires, linguistiques et cognitives du dialogue, Coll. Sciences pour la
communication, Lang, Berne, 1997.
[LAU 92] L AUGIER S., « Le dialogue et l’apprentissage du langage », dans D. Vernant (dir.),
Du dialogue, Recherches sur la philosophie et le langage, n° 14, Vrin, Paris, 1992.
102
Communication homme-système informationnels
[LUZ 92] LUZZATI D., « Un modèle dynamique pour le dialogue homme-machine », dans
D. Vernant (dir.), Du dialogue, Recherches sur la philosophie et le langage, n° 14, Vrin,
Paris, 1992.
[NEW 57] NEWELL A., SHOW J.C., S IMON H.A., « Programming the Logic Theory Machine »,
Western Joint Computer Conference, p. 230-40, 1957.
[PEI 31] PEIRCE C.S, Collected Papers, C. Hartshorne et P. Weiss (dir.), Cambridge,
Massachusetts, Harvard University Press, 1931-1958.
[POL 58] POLANYI M., Personal Knowledge, Routledge & Kegan Paul, Londres, 1958.
[ROS 61] ROSENBLUETH A., WIENER N., ROSENBLUETH A., « Behavior, Purpose and
Teleology », 1943, traduit dans Etudes philosophiques, n° 2, 1961.
[SEA 85a] JOHN SEARLE J., L’intentionnalité, Editions de Minuit, Paris, 1985.
[SEA 85b] JOHN SEARLE J., Du cerveau au savoir, Hermann, Paris, 1985.
[SEA 92] JOHN SEARLE J., The Rediscovery of the Mind, MIT Press, 1992.
[SIM 69] SIMON H.A., Sciences des systèmes, sciences de l’artificiel, Dunod, 1991, tr. par
J.-L. Le Moigne de The Sciences of the Artificial, MIT, Cambridge, Etats-Unis, 1969.
[STR 91] STROUD B., « The Background of Thought », dans E. Lepore et R. Van Gulick
(dir.), John SEARLE and his Critics, Cambridge, Blackwell, 1991.
[TRO 92] TROGNON A., BRASSAC C., « Enchaînement conversationnel », dans Cahiers de
linguistique française, n° 13, p. 76-107, Genève, 1992.
[TRP 94] TROGNON A, LARRUE J., Pragmatique du discours politique, Colin, Paris, 1994.
[TUR 83] TURING A., « Computing Machinery and Intelligence », Mind, vol. LIX, n° 236,
1950, dans A.R. Anderson (dir.), Minds and Machine, Prentice-Hall, 1964, traduction par
P. Blanchard, Coll. Milieux, Champ Vallon, 1983.
[VER 86] VERNANT D., Introduction à la philosophie de la logique, Mardaga, Bruxelles, 1986.
[VER 97] VERNANT D., Du Discours à l’action, PUF, Paris, 1997.
[VER 98a] VERNANT D., « Les niveaux d’analyse des phénomènes communicationnels »,
dans B. Moulin et B. Chaib-Draa (dir.), Analyse et Simulation de conversations : De la
théorie des actes de discours aux systèmes multiagents, L’Interdisciplinaire, Lyon, 1998.
[VER 98b] VERNANT D., MANES GALLO M.C., « Pour une réévaluation pragmatique de
l’assertion » et « Réponses aux objections : D’où nous viennent donc ces merveilleux
brouillards bistrés », dans L’assertion en débat, la description du monde dans la
conversation, Psychologie de l’interaction, n° 5-6, L’Harmattan, 1998.
[VER 01] VERNANT D., Introduction à la logique standard, Flammarion, Paris, 2001.
[WEI 76] WEIZENBAUM J., Computer Power and Human Reason: from Judgment to
Calculation, W.H. Freeman, San Francisco, 1976.
[WIN 72] WINOGRAD T., Understanding Natural Language, New York, Academic Press, 1972.
[WIT 65] WITTGENSTEIN L., De la Certitude, Tel, Gallimard, 1965.
Téléchargement