Chapitre 4 Communication interpersonnelle et communication personne-système 4.1. Introduction En informatique, la question de l’interface est souvent traitée en termes « d’interaction homme-machine », ou même de « dialogue personne-système ». L’usage largement métaphorique de ces termes conduit à se demander quel sens donner à cette exportation, plus ou moins contrôlée, de concepts initialement forgés pour rendre compte des pratiques communicationnelles interhumaines ? Que retient la problématique de la communication personne-système de la complexité des phénomènes de communication interpersonnelle ? Quelles capacités devrait posséder un système informatique pour jouer le rôle d’un véritable interlocuteur ? Pour esquisser une réponse à cette question, je procéderai le plus simplement possible en analysant les concepts en cause dans leur champ d’origine : la philosophie du langage et de la communication. Adoptant une perspective pragmatique, je proposerai d’abord de définir la personne comme coagent d’un procès de transactions et d’interactions. J’analyserai alors la communication interpersonnelle dans ses dimensions transdirectionnelles et interactionnelles. Ensuite, après m’être interrogé d’un point de vue à la fois historique et typologique sur ce que l’on peut entendre par système, j’examinerai à quelles Chapitre rédigé par Denis VERNANT. 74 Communication homme-système informationnels conditions et selon quelles limites un système informationnel pourrait être conçu comme un agent simulant une personne et capable de soutenir un dialogue avec un humain pour réaliser conjointement une tâche déterminée. 4.2. La personne Pour les Anciens, le logos signifiait à la fois raison et discours. Capacité de raisonnement et de calcul sur des signes à des fins de connaissance, le logos était aussi pratique du dialogue, usage social des signes à des fins de communication. D’où, chez Aristote, une définition de l’homme comme animal sociable, politique. Tenant cette dimension sociale pour première, nous adopterons une approche faustienne selon laquelle au début était l’action1. Selon cette approche, la personne peut être définie comme le coagent de transactions et d’interactions. L’analyse de la personne comme agent peut schématiquement se résumer en quatre points : réflexivité, rationalité, finalité et coopérativité, les trois premiers reprenant des caractéristiques plus ou moins dégagées par les définitions philosophiques du sujet. Ces caractéristiques sont ici réinterprétées et coordonnées dans une perspective actionnelle. 4.2.1. La réflexivité Descartes définissait le cogito par la capacité qu’a la pensée de se penser pensante. Cette réflexivité est constitutive du sujet. L’homme est sujet dans l’exacte mesure où il se saisit comme sujet et se sait sujet. Cette capacité de réflexion vaut tout aussi bien pour la conscience que le sujet peut avoir de ce qui n’est pas lui : les choses. A la suite de Brentano, Husserl définissait la conscience comme conscience de... conscience de soi et conscience des choses. La réflexivité prend alors forme d’ouverture, de visée. C’est ce que Husserl nommait intentionnalité. Mais, en philosophes, aussi bien Descartes que Husserl, voyaient en la réflexivité et l’intentionnalité des structures fondatrices et ultimes. Les analyses contemporaines leur objectent la dépendance de ces traits de conscience à l’égard du jeu des signes, du système social de la langue. Pour Benveniste, [BEN 66, p. 260], est ego qui dit « ego ». La subjectivité se construit par et dans le discours. Dès lors, l’expérience du cogito dépend des contraintes performatives du discours, [VER 86, p. 50-52 et p. 176-189], et la réflexivité de la conscience résulte d’un usage intériorisé, que nous qualifierons d’intralocutif, des capacités interlocutives du discours2. 1. Goethe, Faust, première partie, cabinet d’étude. 2. Peirce : « La pensée procède toujours sous forme de dialogue entre les différentes phases de l’ego », voir [PEI 31]. Communication interpersonnelle et personne-système 75 Quant à la conscience des choses, elle s’appuie sur les représentations symboliques et la capacité référentielle des signes. Plutôt que de demeurer prisonnier de l’instant où se présentent les objets, je peux, à loisir, réfléchir sur les « re-présentations » d’objets absents, imaginaires ou impossibles. Ainsi l’intentionnalité a-t-elle une dimension sémantique3. Toute représentation est représentation de quelque chose. En dehors de sa valeur différentielle dans la langue, le signe est signe de quelque chose, il possède une signification référentielle. In fine, le discours est discours sur un monde. Si les signes déictiques assurent l’ancrage du dire dans le contexte de l’énonciation, les signes référentiels garantissent la relation symbolique des signes aux objets et événements composant une situation effective. Toutefois, on prendra garde au fait que ce niveau représentationnel n’épuise pas le sens. Par-delà leurs expressions symboliques, les états mentaux des agents résultent d’intériorisation de schémas actionnels, pragmatiques. Comme l’avait pressenti Peirce, les croyances des agents relèvent de dispositions à agir : « Toute la fonction de la pensée est de créer des habitudes d’action4 » et leurs valeurs s’interprètent en termes de raisons d’agir. 4.2.2. La rationalité La deuxième caractéristique de l’agent est sa rationalité. Indépendamment de la question de la limitation de cette rationalité, il faut supposer que l’agent est rationnel, qu’il agit par calcul. On sait le destin de cette idée de calcul et l’essor – à l’origine de l’intelligence artificielle – de l’idée leibnizienne d’un calculus ratiocinator greffé sur une characteristica universalis, c’est-à-dire d’un calcul formel sur des signes. Formalisée, symbolique, implantée informatiquement, la 3. [BRE 44, p. 102] : « Ce qui caractérise tout phénomène psychologique, c’est ce que les scolastiques de Moyen-Age ont appelé l’inexistence intentionnelle (ou mentale) d’un objet. C’est ce que nous pourrions appeler nous-mêmes – en usant d’expressions qui n’excluent pas toute équivoque verbale – rapport à un contenu, à une direction vers un objet (sans qu’il faille entendre par là une réalité) ou objectivité immanente. Tout phénomène psychique contient en soi quelque chose à titre d’objet, mais chacun le contient à sa façon. Dans la représentation, c’est quelque chose qui est représenté, dans le jugement quelque chose qui est admis ou rejeté, dans l’amour quelque chose qui est aimé, dans la haine quelque chose qui est haï, dans le désir quelque chose qui est désiré, et ainsi de suite ». L’objet brentanien est ainsi « in-existant » dans l’esprit. Roderick Chisholm, [CHI 56], popularisera une version linguistique qui en fera l’objet extérieur visé. L’enjeu est alors celui sémantique de la référence du signe à l’objet, et de son sens entendu, selon Frege, comme « mode de donation de la référence ». Les expressions intentionnelles s’avèrent alors intensionnelle en ce qu’elles ne satisfont plus le principe d’extensionnalité qui autorise la substitution des identiques et la généralisation existentielle, voir [VER 86, p. 119-136]. 4. Voir [PEI 31, p. 5 400]. Peirce s’inspire ici d’Alexander Bain. 76 Communication homme-système informationnels logique déductive a prouvé sa fécondité. Mais, aujourd’hui, penser la rationalité de l’agent, aussi bien que celle des transactions sur le monde et des interactions communicatives entre agents exige un raisonnement pratique, une logique entendue comme méthode, c’est-à-dire étymologiquement comme étude des voies et moyens. Il s’agit de découvrir les principes (par exemple d’économie) et les règles permettant à l’agent d’intervenir sur l’enchaînement causal des événements du monde. Est requise une praxéologie comme étude de la planification des actions. A la différence de la rationalité logique qui s’avère pur calcul théorique, la rationalité praxéologique est raisonnement pratique soumis à des fins. 4.2.3. La finalité La troisième caractéristique met en jeu la finalité des actions. La personne réfléchit et calcule sur les moyens à utiliser en fonction des fins qu’elle s’assigne. Ici intervient la dimension du devoir régissant la détermination des fins et le choix des moyens. L’agent agit en fonction de normes et de valeurs dont il revient à l’axiologie de déterminer les modalités de constitution sociale. Aussi l’agent se soumet-il une déontologie précisant les règles morale de ses actions. A ce titre, il est responsable. En fonction des valeurs adoptées, l’agent construit un projet. A partir du constat d’un manque, d’un besoin à satisfaire, il s’assigne une tâche qui constitue un problème pratique à résoudre par l’action. Analysée, cette tâche se décompose en objectifs, buts et sous-buts qui vont orienter la réalisation d’une stratégie d’action. Chacune des actions effectuées prendra sens en fonction du but qu’elle vise, de l’intention qu’elle réalise. On atteint ici la seconde dimension de l’intentionnalité qui est proprement pragmatique et relève d’un projet5. Est alors requise non la logique causale de l’enchaînement des événements, mais la téléologie des actions : leur explication projective par l’intention, l’objectif visé. Jusqu’à présent, les trois caractères dégagés valent pour un agent isolé. L’erreur de Descartes et de maints philosophes à sa suite (dont pour une bonne part Searle) est d’en rester à un sujet autodéterminé, tombant ainsi dans le solipsisme. L’agent n’est pas premier, il ne peut se comprendre per se, isolément. Il convient de le concevoir d’emblée comme coagent d’un procès commun. D’où le dernier caractère, crucial : la coopérativité. 5. En anglais, le terme purposive spécifie ce sens pragmatique d’intentional. Pas plus qu’il n’est capable de dialoguer, l’animal grégaire, par exemple les abeilles, n’agit selon un projet et ne coopère comme l’homme, voir [BON 94]. Communication interpersonnelle et personne-système 77 4.2.4. La coopérativité L’être est relation. La biologie et l’éthologie nous enseignent que l’animal ne se définit qu’en relation avec son environnement. En tant qu’organisme, l’être humain semble relever de la même analyse. Mais, en fait, comme être de culture, l’homme a profondément transformé son environnement par la technique, et surtout il s’en est donné une représentation pour en faire un monde, plus précisément pour construire une multitude de mondes imbriqués. De tels mondes sont le résultat historique, partant contingent, de constructions sociales résultant d’une multitude de transactions. Dès lors, il faut concevoir la personne non comme un agent isolé, mais comme un coagent immergé dans une situation historiquement déterminée qui compose un champ de transactions où, avec d’autres agents, il instaure un rapport aux mondes. De telles situations ne sont pas nécessairement inédites. Lorsqu’elles se répètent, que les rôles des agents se stabilisent, et que les stratégies se traduisent en procédures acquises, ces situations se cristallisent en scénarios stéréotypés6. Il demeure toutefois que toute situation compose le contexte actionnel d’une coopération entre les coagents 7. Ainsi, toute action humaine répond à un principe de coopération qui fixe les règles positives de toute transaction possible. Les agents sont supposés capables, individuellement d’agir selon des buts en y adaptant les moyens, et collectivement de corréler leurs actions en s’accordant sur des finalités communes. Les modes de coopération peuvent différer, mais l’essentiel est qu’actions et réactions soient coordonnées. Le partage des fins peut impliquer le partage des actions, les acteurs concourant à la même action : deux forestiers peuvent débarder en commun une bille de bois en la tirant avec une corde. Les acteurs peuvent aussi conjointement effectuer des actions complémentaires, comme lorsque des bûcherons abattent un arbre au passe-partout. Ou bien, ils peuvent enchaîner l’une après l’autre leurs actions : le scieur de long n’intervient qu’après l’abatteur et le débardeur. Tout ceci suppose une planification qui détermine l’enchaînement des buts et sous-buts et l’élaboration d’une stratégie8. Mais, sous peine de faire de l’angélisme, la coopération entre agents peut aussi prendre des formes négatives. Les règles de coopération peuvent être tournées ou 6. Que l’on pense par exemple au scénario qui conditionne les transactions et interactions dans un restaurant. On notera qu’au niveau élémentaire les dispositifs d’action, généralement corporels, n’ont pas à faire l’objet d’une décision. Si je décide de répondre au sommelier qui me somme (en vertu des pouvoirs que lui confère le scénario) de goûter le vin, je ne décide pas de tendre le bras vers le verre, le saisir, le porter à mes lèvres, boire une gorgée, etc. 7. Pour Grice lui-même, le principe de coopération, loin de se restreindre aux seules conversations, vaut pour toute forme d’action rationnelle, [GRI 75, p. 62-63]. 8.Dans [VER 97], nous définissons l’action ainsi que les différentes formes de coopération : actions collectives : communes ou conjointes. 78 Communication homme-système informationnels même violées explicitement lorsque les acteurs s’opposent sur les fins. De même que les règles constitutives de l’acte d’assertion autorisent et donnent un sens pragmatique au mensonge, [VER 97, p. 59-86], les règles de coopération donnent sens à toutes les stratégies de ruse, de manipulation, de compétition, et de conflit. Clausewitz concevait bien la guerre comme la continuation de la politique par d’autres moyens, donc comme une forme négative de coopération. Ce qui fonde l’entraide autorise aussi la lutte. On appellera transaction toute action qui constitue un coup dans ce jeu coopératif entre les coagents pour transformer leurs mondes. Les règles de ce jeu contribuent à compléter la signification des actions. On a vu qu’une action trouvait signification dans l’intention de l’agent. Mais cette intention n’existe pas ex nihilo, elle résulte de la position assignée à l’agent dans la situation qui le met en relation avec les autres agents dans leurs mondes communs. L’action acquiert signification praxéologique comme coup dans un jeu transactionnel. 4.3. La communication interpersonnelle Ayant défini la personne, nous pouvons maintenant analyser rapidement les aspects transactionnels puis interactionnels de la communication entre personnes. 4.3.1. Finalité transactionnelle de toute communication Toute communication interpersonnelle doit d’abord être située dans un cadre transactionnel. La dimension transactionnelle de l’analyse prend en compte les relations complexes qui lient l’interaction communicationnelle comme pratique langagière aux activités non langagières dans lesquelles elle s’inscrit. L’interaction communicationnelle est une activité hétéronome : elle n’a généralement pas sa finalité en elle-même9. Elle constitue une action langagière qui vise à provoquer une transaction non langagière. On s’informe des horaires SNCF pour prendre le train, pour atteindre une ville, pour participer à un colloque, pour faire une communication, pour... etc. Dans cette perspective transactionnelle, l’interaction communicationnelle constitue une pratique langagière de coopération entre des agents qui vise la constitution de connaissances, l’accord sur les fins et les moyens pour permettre la réalisation d’actions, communes ou conjointes, sur un monde. Aussi distinguera-t-on dans cette dimension transactionnelle ce qui met en jeu les relations entre coagents, puis leurs relations aux mondes qu’ils construisent. 9. [HAB 97] isole des actes purement linguistiques, ce qui le conduit à séparer arbitrairement un agir communicationnel, orienté vers une pure intercompréhension et un consensus, d’un agir stratégique, lieu d’affrontement des intérêts, orienté vers le succès. Communication interpersonnelle et personne-système 79 4.3.1.1. Transactions intersubjectives On a vu en définissant l’agent que la subjectivité se constituait dans et par l’usage du discours (voir 4.2.1). Mais, il convient maintenant de préciser que la subjectivité ne peut se définir que comme intersubjectivité constituée dans et par un échange discursif gouverné par les règles sociales d’usage de la langue. Le dialogue est constitutif des sujets parlants. Selon Benveniste, est sujet qui dit je à un tu10. Ainsi, l’agent doit être pensé comme coagent d’un procès dialogique. Fondamentalement, est ici en cause la substitution de ce que Francis Jacques, [JAC 82] appela le primat de la relation (primum relationis) à toute interprétation prédicative héritée de la logique scolastique. C’est ce qu’exprime dans le vocabulaire les préfixes dia de dialogue, ou inter dans interlocution. Dans l’approche monologique, le statut du locuteur, comme personne autoconstituée à laquelle on peut prédiquer croyances et intentions propres, relève de l’illusion cartésienne d’un cogito qui s’appréhende dans l’expérience réflexive de la pensée pure. Au contraire, dans la perspective dialogique, les interlocuteurs se constituent mutuellement dans une relation de subjectivation essentiellement dialogique. Tout dialogue instaure le moment crucial où l’intersubjectivité se construit et s’explicite dans et par la réflexivité du langage et la réciprocité du procès dialogique. Mais les interlocuteurs du procès dialogique sont aussi et d’abord les coagents du procès transactionnel. Comme tels, ils sont tributaires d’une situation qui les détermine dans leurs statuts et rôles en même temps qu’ils contribuent ensemble à la modifier. Une telle dépendance est attestée en psychologie du développement : la transaction première mère-enfant produit progressivement les capacités d’interaction communicationnelle de l’enfant en même temps que son statut d’interlocuteur11. Dans cette perspective, l’objet premier du dialogue est celui de la transformation mutuelle des états mentaux des interlocuteurs : de leurs croyances et connaissances (dimension cognitive), de leurs désirs et intentions (dimension volitive), de leurs valeurs et interdits (dimension axiologique) ainsi que de leurs sentiments et émotions (dimension affective). A ce niveau, la coopérativité met en jeu les caractéristiques psychologiques et sociales des interlocuteurs. En plus des informations contenues dans l’échange verbal, les éléments prosodiques du dialogue oral (ton, rythme, etc.), mais aussi les gestes, postures, mimiques et regards fournissent des indices de ces transactions interpersonnelles. Sont en cause les places et les faces, les statuts et images, bref, la manière dont les 10. [BEN 66, p. 260] : « Je n’emploie Je qu’en m’adressant à quelqu’un, qui sera dans mon allocution un tu ». 11. Ceci explique le « mystère » de l’acquisition rapide du langage par l’enfant, voir par exemple l’analyse des thèses de Jérôme Bruner par Sandra Laugier, [LAU 92]. 80 Communication homme-système informationnels coagents explicitent et négocient dans et par l’interaction communicationnelle leur reconnaissance mutuelle d’interlocuteurs12. 4.3.1.2. Transactions intramondaines De même que c’est dans et par le dialogue que les coagents se coconstituent comme interlocuteurs, c’est dans et par le dialogue qu’ils élaborent leurs croyances et connaissances mutuelles relatives aux mondes qu’ils construisent ensemble par leurs transactions effectives. Est en cause ici l’abandon du dogme représentationnel – ou ce que Austin, [AUS 70, p. 39], appelait « l’illusion descriptive » – selon lequel le discours aurait pour objet privilégié de fournir une représentation vraie du monde, d’une réalité unique supposée donnée indépendamment de tout procès dialogique. Techniquement, un des enjeux est celui de la définition de l’assertion. Déjà Peirce indiquait que l’assertion, contrairement à sa définition logique – telle que, par exemple, elle est encore admise par Searle13 – n’est pas l’expression par le locuteur d’une proposition vraie en ce qu’elle correspondrait à un fait du monde, mais un engagement à l’égard de l’allocutaire sur sa croyance relativement à un monde sur lequel ils s’accordent14. La question n’est alors plus celle de la vérité, mais de la véridicité ainsi que de la véracité et du partage des croyances15. De même, pour le « second » Wittgenstein, la question du rapport au monde se traite en termes de jeux de langage et non de correspondance des mots aux choses, des propositions aux faits. Et Wittgenstein visait précisément cette dimension transactionnelle lorsqu’il parlait non de l’usage purement linguistique, mais de l’utilisation (Gebrauch) effective du langage dans sa dimension actionnelle : « Ce que nous disons reçoit son sens du reste de nos actions », [WIT 65, p. 229]. Par le dialogue, les coagents explicitent et négocient la signification de leurs actions, interprètent la situation dans laquelle ils agissent et construisent une « vision du monde ». Cette vision du monde ne doit pas être confondue avec les Weltenschauungen purement intellectualistes des philosophes. Elle constitue une explicitation de connaissances et de croyances tributaires de schèmes d’action, des pratiques d’intervention sur les mondes. On retrouve ici la « forme de vie » wittgensteinienne dans laquelle s’inscrit tout jeu de langage. Ces formes de vie sont techniquement et socialement déterminées. Elles varient dans l’espace et dans le 12. C’est ici qu’interviennent par exemple les règles de politesse, voir Catherine KerbratOrecchioni : « Variations culturelles et universaux dans le fonctionnement de la politesse linguistique ». 13. Voir [SEA 85a] : « le but de l’assertif est de rendre le contenu propositionnel conforme au monde », lexique, p. 325. 14. Voir « Toute assertion enveloppe un effort pour que l’interprète visé croie ce qui est asserté et, à cette fin, il faut lui fournir une raison de le croire » [PEI 31] et [CHA 91]. 15. Sur l’analyse de l’assertion en termes de contrat de véridicité et véracité, voir [VER 86, p. 59-85]. Communication interpersonnelle et personne-système 81 temps. Il y a belle lurette que l’on n’abat plus les arbres au passe-partout et, dans nos sociétés, on n’a jamais utilisé l’éléphant comme agent de débardage ! On atteint là le soubassement proprement culturel et anthropologique du sens des actions humaines, « l’arrière-plan » ultime que Wittgenstein appelait « l’image du monde16 ». Elle est une réalisation collective résultant des interactions langagières comme des transactions non langagières17. Dès lors, chaque monde est provisoire et existe une pluralité de mondes, voir [GOO 78]. Le monde de la vie quotidienne qui est en question dans la plupart de nos conversations a peu de rapports avec le monde des physiciens en jeu dans les controverses en théorie quantique, etc. On comprend alors pourquoi la vérité ne peut plus se définir en termes de correspondance du discours au réel, mais doit faire l’objet d’une conceptualisation proprement pragmatique18. L’analyse de cette dimension de transaction sur les mondes s’appuie naturellement sur les données linguistiques fournies par le dit du locuteur19 comme sur des indices non langagiers tels que le contexte énonciatif et dialogique, la situation des interlocuteurs 20, ainsi que l’arrière-plan actionnel fourni par les formes de vies impliquées et l’image du monde qui leur donne sens. 16. « Mais cette image du monde, je ne l’ai pas parce que je me suis convaincu de sa rectitude ; ni non plus parce que je suis convaincu de sa rectitude. Non, elle est l’arrière-plan dont j’ai hérité sur le fond duquel je distingue entre vrai et faux », [WIT 65, prop. 94]. 17. Selon Searle, cet arrière-plan est « pré-représentationnel » et se déploie, de façon holiste, en « réseaux », voir [SEA 85a, chapitre 5]. Comme il développe une conception strictement représentationnelle du sens, on voit mal comment peut être exploité cet arrière-plan. Ce hiatus disparaît si l’on adopte pour le sens, les croyances, etc. une conception actionnelle. Sur les ambiguïtés de la conception searlienne du background, voir [STR 91]. 18. Voir par exemple, [WIT 65, p. 204] : « Mais le terme, ce n’est pas que certaines propositions nous apparaissent à l’évidence comme vraies immédiatement, donc ce n’est pas de notre part, une sorte de voir ; le terme, c’est notre action qui se trouve à la base du jeu de langage », De la Certitude, p. 204. Voir aussi [VER 98a] article cible et « Réponses aux objections : D’où nous viennent donc ces merveilleux brouillards bistrés ». 19. Par exemple, « Le bateau coule » décrit une action non linguistique dont le sujet n’est pas l’agent de l’acte de discours. Pour une prise en compte de la distinction entre dire et dit, agent et sujet, voir [VER 97, chapitre 3]. 20. Nous distinguons : le texte (trace écrite du dit), le cotexte (nécessaire pour analyser les anaphores et les phénomènes métadiscursifs), le contexte énonciatif (entièrement centré sur la personne du locuteur, le lieu et le temps de son énonciation et sa manière d’appréhender les objets et événements (voir la modalisation et les phénomènes de thématisation où le locuteur exprime son point de vue sur la situation, exemple actif/passif, ou « Le verre est à moitié vide/moitié plein »), le contexte dialogique (historique de l’interlocution), la situation (composée des agents, d’un espace et temps objectifs, des objets comme instruments ou matériaux, des actions), le monde en cause (dans sa dimension descriptive d’image du monde et opérative de forme de vie). 82 Communication homme-système informationnels Ayant esquissé les déterminations transactionnelles de toute interaction communicationnelle, il reste maintenant à appréhender le procès dialogique dans ce qu’il a de spécifique. 4.3.2. L’interaction langagière L’analyse de la communication interpersonnelle prend en compte la dimension spécifiquement interlocutive, c’est-à-dire l’interaction proprement langagière21. On a vu que le dialogue, en tant que fondamentalement hétéronome, est dépendant de ses finalités transactionnelles extrinsèques. Comme le soulignait Grice, tout dialogue a au moins un but22. Ce but, accepté d’emblée ou négocié, justifie l’interaction et lui assigne un cadre actionnel. Par exemple, dans une conversation à bâtons rompus les tours de parole sont négociés et le choix des thèmes de l’échange est subordonné à la captation de l’intérêt de l’interlocuteur. Il en va tout autrement dans le cas d’un interrogatoire de police ! Les tours sont prédéfinis, les thèmes imposés et il ne s’agit plus de séduire l’interlocuteur ! La finalité transactionnelle mettant en jeu aussi bien les relations entre les personnes que leurs actions sur un monde conditionne directement le dialogue. Toutefois il importe, sous peine de graves confusions, d’isoler pour l’analyse le moment langagier comme forme spécifique d’interaction répondant à des contraintes particulières. L’interaction langagière vise indirectement, et plus ou moins médiatement, la transformation d’un monde par le truchement d’une action d’autrui provoquée par l’échange d’informations. Le message d’alerte du capitaine : « Le bateau coule » provoquera la réalisation par l’équipage d’un scénario d’évacuation du navire. Dans ce cas, le « dialogue » sera réduit au minimum puisqu’à l’acte linguistique correspondra quasi automatiquement une réaction non linguistique. Mais, dans les cas où il faudra persuader, convaincre, menacer, etc., autrui afin d’obtenir sa réaction, le dialogue sera d’autant plus complexe. Les différentes formes de dialogue pourront alors se caractériser comme des stratégies coopératives complexes régies par des règles plus ou moins strictes. La question vive est alors de rendre compte de la dynamique propre de l’interaction, des règles du procès 21. Le terme d’interlocution, apparemment approprié, ne rend pas compte de notre approche résolument pragmatique, actionnelle. De plus, il pourrait laisser croire que n’interviennent que les aspects proprement verbaux au détriment des indices paraverbaux et non verbaux de l’interaction que nous incluons sous le vocable de « langagier ». Il y a un langage du regard – important dans la négociation des tours de parole – comme un langage du corps. 22. La conversation de salon n’échappe pas à la règle, simplement son but est purement phatique : est principalement en jeu la dimension intersubjective de la transaction et non l’intervention sur un monde. Communication interpersonnelle et personne-système 83 dialogique. Sans pour autant prétendre apporter réponse, je suggère une approche projective de l’interaction langagière. Une approche projective Sous sa forme première, le dialogue utilise le médium sonore, la parole. Or celleci, à la différence du chant, n’autorise pas le canon, la coïncidence temporelle des expressions. Dès lors, celui qui prend la parole, prend le pouvoir. Il en résulte que l’interaction est gouvernée par une règle d’alternance de cette prise de parole23. L’alternance des tours de parole, objet des analyses ethnométhodologiques, fournit la structure de surface du dialogue, voir [GOF 87]. Mais cette contrainte structurelle superficielle ne saurait rendre compte de la dynamique du procès dialogique luimême. A l’intérieur du cadre transactionnel, l’interaction se déploie selon ses propres contraintes. Par opposition à son autre radical qu’est le déchaînement brut de la violence, le dialogue, sous toutes ses formes – y compris agonales : négociations, débats, joutes oratoires, etc. – suppose toujours un accord de coopération portant sur des finalités, scénarios et stratégies proprement interactionnels. Ceci ne veut cependant pas dire que la finalité dialogique soit nécessairement le consensus, la construction d’un accord sur les croyances, les valeurs, les intentions24. Pourtant, même lorsque règne le « dissensus », le dialogue ne peut se poursuivre que si les débattants ne se muent pas en combattants et jouent le jeu dialogique en acceptant les règles de l’affrontement verbal : arma cedant verbis. Ils partagent un modèle de l’interaction. C’est ce modèle, plus ou moins conscient25, qui sert à régler le procès dialogique, à apprécier la fonction et l’acceptabilité dialogique de chaque prise de parole. En tant que représentation possédée par chaque interlocuteur, il assure le guidage des interactions. D’où son caractère projectif : en fonction du but, il détermine les attentes comme les réactions des interlocuteurs. 23. Naturellement, dans les dialogue oraux animés, cette règle n’est pas toujours respectée, d’où des chevauchements de prise de parole. Ceci témoigne du fait que même dans le cas de coopération positive (exemple discussion entre amis) des enjeux de pouvoir perturbent toujours un déroulement idéalement irénique. Au niveau interactionnel, existe un « primat du Je », voir [BEN 66]. Cette asymétrie est souvent renforcée par une asymétrie des positions, des connaissances, etc. 24. C’est l’erreur d’Habermas qui érige ce cas irénique en « situation idéale de parole » où, par la seule vertu de l’argumentation dialogique, on parvient à fonder, au moins théoriquement, un consensus social. 25. Lors d’une campagne électorale, les règles du débat télévisé font l’objet d’une négociation préalable explicite et minutieuse. L’enjeu n’est manifestement pas un accord théorique ou pratique mais l’affrontement des personnes, voir [TRO 94] 84 Communication homme-système informationnels Dans cette perspective, le dialogue ne se caractérise pas comme forme dialogale ou même structure d’échange, mais comme processus ouvert et activité située26. Chaque dialogue effectif, en tant que communication orale entre deux interlocuteurs, est un phénomène unique, a priori imprévisible. La difficulté est alors de rendre compte de la dynamique complexe du dialogue. Pour appréhender le procès dialogique effectif au cours d’un dialogue oral personne-personne et satisfaire l’exigence d’une maîtrise d’une communication personne-système qui nécessite une gestion dynamique « en temps réel » des échanges, nous proposons trois niveaux d’analyse : celui du modèle projectif, des interactes, enfin des actes de discours. Premier niveau : l’interaction doit d’abord être appréhendée dans son unité projective. Comme activité humaine, l’interaction communicative relève d’une explication téléologique le but de l’interaction est sa raison d’être. Ce but, en fonction du problème à résoudre et des questions qu’il soulève assure l’unité du procès dialogique. Sur le fond des contraintes transactionnelles extrinsèques qu’impose la situation, le dialogue se déroule à partir d’une projection opérée par chaque interlocuteur sur la finalité, la thématique, les stratégies dialogiques intrinsèquement admissibles. Le modèle projectif fournit le cadre général de l’interaction dialogique. Nous avons proposé pour exemple un modèle simplifié d’un dialogue informatif élémentaire ; nous y reviendrons (voir 4.5.2). Deuxième niveau : dans ce cadre, le procès dialogique se déploie en actions et réactions qui se répondent pour former des interactes27. Dans sa perspective foncièrement monologique, Austin ignora cette dimension, toutefois il dut admettre – sans en tirer toutes les conséquences théoriques qui s’imposaient – que certains actes contractuels ne peuvent être unilatéraux : un pari implique son acceptation par l’auditeur28. Chaque prise de parole par un interlocuteur constitue une proposition d’action à l’intérieur de l’espace projectif du dialogue. Elle constitue une proaction (feedforward), un engagement du locuteur à partir des contraintes transactionnelles, de ses attentes et d’hypothèses sur les croyances, valeurs, intentions de l’allocutaire. La réaction de l’allocutaire vient ou non ratifier cette proposition et entériner ou non les choix interactionnels qu’elle suppose. On voit ici le poids de la rétroaction (feedback) dans le contrôle et la régulation du procès dialogique. Mais cette rétroaction 26. Pour une analyse du dialogique, voir [VER 97, chapitres 5, 6, 7]. 27. La notion wittgensteinienne de « jeu de langage » prend en compte, au moins théoriquement, ce fait fondamental. 28. Voir [AUS 70, p. 65] « Ma tentative de faire un pari en disant, « je vous parie six pence » échoue, par exemple, à moins que nous ne disiez « d’accord » (ou des paroles à peu près équivalentes) ». La même chose vaut pour l’acte de donner un cadeau, nommer quelqu’un, etc. Est en cause « l’accroc » dans la classification des échecs. L’interaction n’a pas ainsi valeur générale. Communication interpersonnelle et personne-système 85 est seconde par rapport à la proaction, l’anticipation téléologique que constitue la proposition première du locuteur29. A inverser les facteurs, on s’interdirait l’explication de la dynamique du procès dialogique pour n’atteindre qu’une description structurale après coup, post festum. La dynamique du dialogue réside ainsi dans cette adaptation réactive des interactes à l’intérieur du cadre projectif de l’interaction. Troisième niveau : reste un dernier niveau, celui des actes élémentaires de discours. Selon notre approche pragmatique, les actes de discours ne valent que comme abstractions théoriques relevant d’une analyse sémantique tant que ne sont pas spécifiées leurs fonctions dialogiques effectives qui dépendent notamment de leur place dans le dialogue, de la stratégie adoptée et du rôle dialogique du locuteur qui les assument30. On distinguera donc la définition abstraite des actes de discours telle qu’elle relève d’une classification de l’analyse des fonctions dialogiques qu’ils prennent dans le procès interactionnel. Ainsi un acte assertif prendra des fonctions dialogiques de réponse, réplique, remise en cause, etc. (voir 4.5.2). Dans cette perspective, j’ai proposé une nouvelle typologie des actes de discours qui puisse effectivement servir d’outil d’analyse du dialogique en assignant à l’interlocuteur statut non d’autre locuteur, mais d’authentique allocutaire, et en reconnaissant notamment la spécificité des actes métadiscursifs chargés d’assurer la régulation du dialogue, Voir [VER 97, p. 43-58]. 4.4. Communication personne-système Ayant précisé ce que nous entendons par communication interpersonnelle, nous pouvons aborder la communication personne-système et mesurer l’écart qui sépare ces deux types d’interaction. Mais s’interroger sur la communication personnesystème exige auparavant que l’on précise les types de systèmes en cause. Mais, plus encore, préalablement, il importe de caractériser le statut que l’on assigne aux systèmes informatiques. Cette question préjudicielle s’avère nécessaire pour lever 29. C’est dans cette perspective projective qu’il est possible de réinterpréter « l’enchaînement conversationnel » de [TRO 92]. Les anticipations initiales des interlocuteurs constituent le cadre hypothétique et révisable du dialogue : chacun anticipe les connaissances de l’autre, ses buts, les connaissances partagées, les représentations que l’un a de l’autre, etc. 30. Techniquement, on peut réinsérer dans le procès interactionnel et transactionnel l’analyse tripartite de l’acte de discours. La dimension locutoire renvoie au texte et cotexte, à la coconstruction du sens (ambiguïté et métadiscursivité) et de la référence (anaphores). La dimension illocutoire renvoie aux contextes énonciatif et dialogique pour déterminer la force illocutoire (usage direct/indirect, implicatures, etc.). La dimension perlocutoire, embrayant sur la situation permet de déterminer les attentes du locuteur (objectifs) et les résultats obtenus (effets) et ainsi de caractériser la valeur transactionnelle de l’acte de discours. 86 Communication homme-système informationnels les ambiguïtés épistémologiques issues de la problématique de l’intelligence artificielle. Quel statut assigner à une machine intelligente ? Que signifie attribuer une forme d’intelligence à une machine ? L’histoire de l’intelligence artificielle montre que schématiquement deux attitudes épistémologiques sont possibles que nous différencierons en émulation et simulation. 4.4.1. Statut épistémologique d’un système « intelligent » 4.4.1.1. L’émulation des fonctionnalités On sait qu’à cette interrogation liminaire sur l’intelligence des machines, Alan Turing, l’un des pères de l’ordinateur et de l’intelligence artificielle, apporta réponse dès 1950 sous la forme de son fameux test qui précisément mettait en avant les capacités communicationnelles de la machine31. Selon le test de Turing, on pourra qualifier de pensante une machine capable de manifester le même comportement qu’un homme dans un jeu de questions réponses au cours duquel un interrogateur doit deviner le sexe de ses interlocuteurs cachés, l’homme ayant la possibilité de développer des stratégies dilatoires. Sans vouloir ici revenir sur le contenu de ce test et notamment son aspect dialogique généralement négligé32, considérons seulement son statut épistémologique. Globalement, il s’agit exclusivement d’un test comportemental : la machine doit être capable de simuler le comportement d’un humain. Turing l’interprète explicitement en termes behavioristes : la machine doit apporter une réponse identique ou similaire à celle d’un humain devant la même situation. Elle doit être capable d’agir, de réagir, mieux d’interagir opportunément. Sont alors en cause les résultats observables et non les processus internes qui les engendrent. Ce point est important car il manifeste qu’il ne s’agit pas de prétendre que la machine procède de la même façon que l’homme, mais qu’elle peut jouer le même rôle en recourant à des procédures différentes. Pour prendre un exemple simple, si une pendule mécanique, l’horloge parlante, une montre à quartz à cadran numérique (digital) ou analogique, etc., donnent toutes la même heure pour autant qu’elles soient bien réglées, elles le font pourtant selon des procédures et des moyens d’affichage fort différents. L’identité – ou la similitude – des résultats est ainsi un critère différent – et plus faible – que l’identité des modi operandi 33. On dira alors que la machine pense ou 31. Voir [TUR 83]. Soient un homme A et une femme B séparés par une cloison d’un interrogateur C avec lequel ils communiquent par téléscripteur. C doit deviner le sexe de A et B. Le « jeu d’imitation » consiste à substituer à A une machine. 32. Pour une analyse détaillée, voir [VER 97, chapitre 7]. 33. Turing considère que le fait pour l’ordinateur comme le cerveau d’utiliser l’électricité comme support des signaux constitue une « similitude très superficielle ». Il préconise plutôt de chercher « des analogies mathématiques de fonctions », voir [TUR 83, p.45-46]. Communication interpersonnelle et personne-système 87 est intelligente si elle manifeste un comportement similaire au comportement intelligent de l’homme. C’est en un même sens que l’on dira, par exemple, qu’une machine voit lorsqu’elle est pourvue d’une fonction de vision, même si son « organe » de vision diffère notablement de l’œil humain. Il suffit que cette fonction de vision soit adaptée à ses finalités propres. La problématique est alors clairement celle, technique, de réalisation d’un outil capable d’assurer des fonctionnalités naguère encore l’apanage de l’homme. Dans cette approche, l’émulation machinique porte sur des fonctionnalités. 4.4.1.2. La simulation des processus Historiquement, l’abandon à partir des années soixante de cette perspective étroitement behavioriste produisit une modification épistémologique substantielle : on est passé d’un objectif d’émulation du comportement humain à une stratégie de simulation où la machine réalise informatiquement la modélisation des processus cognitifs gouvernant le comportement humain. Ouvrant la « boîte noire », on s’intéressa à la compréhension des processus de raisonnement et de représentation symbolique humains. Dès lors, n’importaient pas seulement la reproduction d’une fonction humaine, mais les modalités de cette reproduction et leur éventuelle vraisemblance psychologique. La machine fonctionnait comme réalisation informatique d’une théorie qu’il s’agissait de tester à travers les modèles qu’elle proposait. Le souci principal portait alors sur les hypothèses admises, les stratégies mises en jeu, les procédures et formalismes utilisés. Ainsi, H.A. Simon, concevant l’ordinateur comme un « système de symboles physiques », en faisait explicitement un moyen de « simulation des procès cognitifs humains » 34. L’objectif explicite était d’utiliser l’informatique comme moyen de tester expérimentalement des modèles d’explication du comportement humain. Les simulations informatiques devenaient « alors un outil important pouvant nous permettre une compréhension plus profonde du comportement humain », voir [SIM 69, p. 22]. Dans cette perspective, sous peine de confondre le phénomène et sa modélisation, on ne dira plus que la machine est intelligente mais seulement qu’elle simule tel comportement intelligent. Plus précisément, la comparaison entre le comportement de l’homme et celui de la machine fait place à un parallèle entre les capacités cognitives de l’esprit humain et les aptitudes computationnelles du programme informatique. Dès lors, la communication personne-système peut être appréhendée de façons fort différentes selon que l’on adopte l’une ou l’autre des approches possibles. 34. Voir [SIM 69, p.4] où Simon prend ses distances avec l’expression « d’intelligence artificielle » lui préférant celle de « simulation des procès cognitifs ». 88 Communication homme-système informationnels Selon la première où il s’agit simplement d’émuler les fonctionnalités, on adoptera une perspective strictement ergonomique qui subordonnera l’échange personne-système aux seules exigences de la tâche à réaliser. La seconde approche sera plus ambitieuse dans la mesure où elle visera à simuler informatiquement les capacités langagières et dialogiques de l’homme. On sera alors dans une stratégie d’anthropomorphisation du système qui aura valeur de test expérimental portant sur les modélisations théoriques des procédures humaines de cognition et de communication (compréhension du langage naturel, compétence dialogique, reconnaissance des visages, etc.). Ayant ainsi caractérisé les attitudes épistémologiques possibles vis-à-vis des systèmes « intelligents », venons-en à la distinction des types de systèmes possibles. 4.4.2. Les types de systèmes De façon générale, on peut définir un système comme toute organisation d’éléments matériels. Cette organisation peut s’avérer plus ou moins rigoureuse et sophistiquée et la matérialité de ses éléments peut être plus ou moins marquée. Ainsi, une langue est un système de signes, donc une organisation fortement structurée d’éléments dont la matérialité est la plus évanescente : une image acoustique. Schématiquement, nous résumerons l’histoire des systèmes techniques qui intéressent notre problématique en trois temps : l’apparition des machines, l’avènement des ordinateurs et des systèmes informatiques, la réalisation de réalités virtuelles et de robots intelligents. Le mouvement de cette histoire des techniques se caractérise par le fait que si la systématicité tend à devenir de plus en plus complexe, le procès de dématérialisation qui inaugure la deuxième phase s’inverse lors de la troisième phase. 4.4.2.1. Les machines La machine apparut initialement comme le prolongement de la main humaine. Elle fut porteuse d’outils et produisit les manufactures. Puis, associée à une source d’énergie, elle remplaça la force humaine et permit la création des fabriques. Dès lors, la machine put assurer par elle-même un travail, c’est-à-dire une transformation de la nature. La rationalisation de ce travail permit une production de masse qui détermina la structuration sociale, les échanges économiques, les représentations idéologiques de nos sociétés industrielles de consommation. Malgré son importance, ce machinisme n’a satisfait toutefois que les fonctions et les finalités de l’homo faber. Communication interpersonnelle et personne-système 89 4.4.2.2. L’ordinateur et les systèmes informationnels L’apparition de l’ordinateur, à la faveur de la dernière guerre, constitua un bouleversement majeur. Le mot même d’ordinateur témoigne de l’accroissement de complexité et de la dématérialisation opérée. Il s’agissait désormais d’aider l’homme non plus dans son effort de transformation de la nature, mais bien dans ses fonctions intellectuelles supérieures de représentation, de calcul et de décision. La machine se faisait machina sapiens ! S’ouvrait ainsi un procès d’humanisation des machines dont témoigne la problématique de « l’intelligence artificielle » (IA). Primait dès lors le concept d’information. La machine devenait capable d’un traitement du signal et d’un calcul sur des signes entendus comme représentations non seulement numériques, mais aussi et surtout symboliques. L’ordinateur constituait une machine capable d’assister l’homme dans son labeur proprement intellectuel (SGBD, EAO, PAO, CAO, etc.). Ses possibilités de raisonnement associées à la formalisation d’une expérience en faisaient un outil d’aide au diagnostic et à la décision (systèmes experts). Dans cette perspective, « l’interaction homme-machine » étant conçue comme un échange réciproque entre un utilisateur unique et un système fermé dont la puissance semblait en faire un véritable deus ex machina. Devant les difficultés à réaliser rapidement les rêves de l’IA, face aux exigences de l’organisation bureaucratique du travail intellectuel, et profitant des possibilités offertes par le développement des réseaux d’information, on en vint dans les dernières décennies à une conception de systèmes informationnels capables d’assumer une fonction de médiation entre acteurs humains. A la fonction d’assistance initiale s’ajoutait alors une fonction de gestion de la coopérativité entre humains dans des tâches de haut niveau, par exemple de conception et de conduite de projets. Dans cette approche coopérative (workflow), la question de l’interface se complique singulièrement puisqu’il faut prendre en compte la multiplicité des agents humains, leurs rôles, positions, pouvoirs différents, la répartition des tâches, la gestion de l’information dans des espaces publics, véritables forums informatiques. 4.4.2.3. La réalité virtuelle et les robots La troisième phase de cette histoire, qui s’esquisse à peine aujourd’hui, tente d’achever l’humanisation des machines informatiques en opérant leur rematérialisation. Globalement caractérisé, l’enjeu est celui du rapport de ces machines au monde. L’ordinateur opère sur des symboles dont le statut de représentation fait problème (voir 4.5.1.1). Une des manières de résoudre la question est de construire des systèmes qui produisent effectivement un monde comme référence de leurs représentations. C’est toute la problématique de la réalité virtuelle. La machine construit en trois dimensions un monde artificiel qui peut devenir, à des fins ludiques ou opératives, une réalité de substitution ou une réalité « augmentée » pour l’utilisateur humain. Cette fois, l’homme pénètre le monde de la 90 Communication homme-système informationnels machine, artefact de son propre monde. Ce ne sont plus les opérations intellectuelles qui sont simulées, mais un monde lui-même. Il est toutefois une autre manière d’apporter réponse à cette question du rapport au monde. Il s’agit alors non de parfaire la représentation en construisant un monde de substitution, mais de donner au système une matérialité telle qu’il puisse effectivement agir dans notre monde. C’est tout le champ de la robotique avancée. Pourvu de senseurs, le robot intelligent devient capable d’une authentique transaction avec notre monde en termes de couplage perception-action. On retrouve ici le rêve cybernétique d’une machine qui ne serait pas seulement automobile, possédant, comme une voiture, sa propre force de locomotion, mais automate, possédant sa propre capacité de pilotage. Dans cette perspective, la communication homme-système change notablement qui imposera à terme d’envisager une communication entre les robots eux-mêmes ! Comme on le constate aisément avec cette extrapolation, il est difficile de traiter abstraitement la question de la communication avec les systèmes « intelligents » sans spécifier à chaque fois le type de système en question. Notre petite et trop rapide histoire des systèmes techniques n’avait d’autre fin que de nous fournir une typologie commode. Figure 4.1. Typologie des systèmes 4.5. Vers une communication personne-système Nous pouvons maintenant traiter notre question de la communication personnesystème en précisant les enjeux et les limites de l’usage du terme de communication appliqué à un échange entre l’homme et un système. Parler de communication personne-système, c’est d’une façon ou d’une autre assimiler le système à un agent possédant des capacités intertransactionnelles et transactionnelles semblables à l’homme. Dans quelles conditions un système artificiel pourrait-il simuler plus ou Communication interpersonnelle et personne-système 91 moins correctement les capacités communicationnelles et transactionnelles de la personne humaine ? 4.5.1. Le système comme agent La question de savoir si un système « intelligent » peut être considéré comme un agent revient à s’interroger sur ses aptitudes à posséder les quatre caractères avec lesquels nous avons défini la personne. 4.5.1.1. Réflexivité Notre analyse de la réflexivité se résume en deux critères : la conscience de soi et la conscience des choses. Un système intelligent peut-il alors manifester une conscience de soi et une conscience d’un monde ? Une réponse technique consiste à doter le système de fonctions méta. Ainsi, tout système expert recourt à des métarègles pour assurer la gestion des priorités lors de l’usage des règles d’inférence. De même, on peut prévoir qu’un système capable d’une communication relativement sophistiquée devra posséder, outre un modèle de l’interlocuteur, un modèle de lui-même lui permettant, notamment, de gérer son champ de compétence et ainsi d’expliquer son incapacité à répondre à certaines questions. Bref, on peut doter le système d’une représentation de lui-même et d’une capacité d’autocontrôle. Cette réponse technique pourra paraître aux yeux du philosophe trop modeste ! In fine, les objections de Searle contre L’IA se réduisent à cette question de la conscience considérée comme phénomène biologique irréductible35. En fait, on retrouve ici ce que Turing appelait « l’argument de la conscience » dont il montrait qu’il conduit au solipsisme : « Selon ce point de vue extrême, la seule manière dont on pourrait s’assurer qu’une machine pense serait d’être la machine et de ressentir que l’on pense »36. Reste alors la question de la conscience des choses, c’est-à-dire la capacité sémantique des états mentaux à viser des objets, ou des signes à référer à des réalités 35. Voir [SEA 85b, p. 55-56] et [DEN 90, p. 431] : « Voila quelle est la croix de Searle : c’est la conscience, et non la sémantique ». Dans [SEA 92, chapitre 9], Searle reprend son argumentation de la chambre chinoise. La critique s’étend à la syntaxe redéfinie comme relative à un observateur et tributaire d’une interprétation. Mais surtout la dimension intentionnelle de l’interprétation et le pouvoir causal sont clairement attribués à la conscience comme phénomène biologique concret, voir p. 216, 220, 222. Quoi qu’explicité, le nervus probandi demeure le même que dans l’argumentation initiale. 36. Dans [SEA 92], Searle, considérant l’hypothèse d’un robot conscient, soutient que son comportement ne saurait fournir le critère de sa faculté de conscience. 92 Communication homme-système informationnels extralinguistiques. Ceci caractérise ce que nos appelons l’intentionnalité sémantique. Les systèmes possèdent-ils cette capacité intentionnelle ? Je considère que la réponse diffère selon que sont en cause des machines informatiques ou des robots. Considérons d’abord les machines actuelles, les ordinateurs impliqués dans ce que l’on appelle le « dialogue personne-machine ». Leur structure matérielle ne leur permet aucune intervention directe et effective sur le monde réel. Leur mode d’intervention demeure purement symbolique. On pourrait dire que leur contribution se cantonne dans le champ de la représentation. Mais un philosophe sourcilleux n’admettrait même pas cette affirmation. Car toute authentique représentation doit être représentation de quelque chose. La signification symbolique requiert référence au monde. Or les machines en question n’ont par elles-mêmes aucun moyen d’instaurer un quelconque rapport référentiel au monde. Si elles utilisent des symboles, elles ne possèdent aucune capacité symbolique ; si elles ont une mémoire, elles ne possèdent aucun souvenir. Searle est alors fondé, avec sa fameuse expérience de la chambre chinoise, à dire que les machines ne font que manipuler des symboles vides de tout sens, qu’elles maîtrisent une syntaxe (d’ailleurs relativement pauvre) mais aucune réelle sémantique37. La machine qui gère en hypertexte une encyclopédie sur CD-Rom ne comprend pas plus que ne le fait un simple livre ! Les machines « dialoguantes » ne possèdent aucun pouvoir référentiel. Même si l’on parvient un jour à les doter de capacités interactionnelles satisfaisantes, leurs capacités transactionnelles demeureront nulles. Par elles-mêmes, elles ne seront capables d’aucune intentionnalité sémantique : d’aucune représentation effective. Les machines informatiques, aussi sophistiquées soient-elles, demeureront toujours de simples outils facilitant toutes les formes de traitements symboliques opérés et interprétés par l’homme. C’est finalement l’utilisateur qui assigne signification référentielle aux marques utilisées aveuglément par la machine38. La machine n’a qu’une fonction médiatrice entre le concepteur et le(s) utilisateur(s). Eux seuls assument la fonction référentielle des symboles utilisés. Ainsi l’argumentation de Searle vaut-elle pour les machines. Toutefois, il en tire une conclusion plus ambitieuse : il prétend disqualifier toutes les productions de l’intelligence artificielle présentes et futures. C’est, selon moi, aller trop vite en besogne et procéder indûment à des amalgames. 37. Voir [SEA 85b, p. 41-45]. A l’époque, Michael Polanyi objectait déjà à Turing que la « fonction sémantique » ne pouvait être assumée que par un esprit humain, voir [POL 58]. 38. On pourrait objecter par exemple qu’un programme de dessin d’architecture réalise matériellement des plans sur l’écran, assimilable au monde de la machine. Mais les lignes, courbes, etc. qui, bien évidemment, ont une réalité informatique en termes de configurations de pixels n’acquièrent valeur de représentation que pour l’utilisateur. De même, un tableau abstrait a bien une réalité matérielle, mais est dépourvu de toute fonction référentielle. Communication interpersonnelle et personne-système 93 A la différence des machines, les robots possèdent une structure matérielle leur permettant cette fois un mode d’intervention directe sur le monde : ils sont doués d’un minimum de perception avec leurs senseurs, d’action et de réaction avec leurs effecteurs. La problématique change alors car les symboles manipulés prennent sens par la possibilité d’une référence effective aux objets du monde. Aux cubes représentés selon le programme correspondent bien des cubes réels que le robot perçoit et manipule. Dès lors, les robots acquièrent une sémantique minimale. Le premier niveau de l’intentionnalité se trouve satisfait dans son principe : la capacité référentielle. Ainsi, idéalement, les robots seraient capables d’une intentionnalité sémantique ! 4.5.1.2. Rationalité La deuxième caractéristique, interprétée en termes de capacités de calcul et d’inférence s’avère dès l’origine propre à l’ordinateur. L’intelligence artificielle est précisément née de l’invention d’une machine capable non plus de calculs numériques, mais d’inférences logiques sur des symboles pouvant recevoir de multiples interprétations39. De façon apparemment paradoxale, toute la question a été, pour simuler le comportement rationnel de l’homme, de limiter cette capacité inférentielle de la machine ! C’est la question de la limitation de la rationalité, [CHE 86]. Si la machine, laissée à elle-même, ne se contredit pas et est capable de maîtriser toutes les conséquences de ses assertions, il n’en va pas de même de l’homme qui est minimalement rationnel. D’où la nécessité d’affaiblir les possibilités machiniques pour gérer l’incertitude et l’ignorance (voir par exemple les logiques non monotones). Ceci toutefois ne constitue que des aménagements de l’approche logique désormais classique. Or, pour manifester les capacités rationnelles d’un agent la machine doit pouvoir faire des inférences non seulement logiques, mais aussi praxéologiques. Elle doit être capable de définir une planification et une stratégie d’action. Rien du point de vue théorique ne s’oppose à ce que l’on puisse lui assigner cette capacité. La question est cependant celle de l’élaboration de formalismes pertinents en la matière (logiques dynamiques, logique de l’action, de la planification, etc.). 4.5.1.3. Finalité Doter un système « intelligent » de capacité de planification pose la question des objectifs, des buts, bref, de la finalité de ses actions. Un système informatique est-il capable d’intention, de projet, c’est-à-dire d’une intentionnalité pragmatique ? 39. En mai 1956, [NEW 57] inventèrent le premier programme logique capable de démontrer des théorèmes du calcul des propositions. Pour une présentation des calculs logiques, voir [VER 01]. 94 Communication homme-système informationnels Avant de répondre à cette question, remarquons d’abord que, dès lors qu’il instaure une communication avec une machine présentant un minimum de capacités dialogiques, l’utilisateur lui prête spontanément une aptitude intentionnelle. L’utilisateur croit ou feint de croire que la machine répond en fonction d’intentions relevant d’un projet propre. Dialoguant avec une machine, l’utilisateur infléchira son comportement dialogique en fonction de la représentation plus ou moins consciente qu’il se fait de cette machine. Généralement, la dimension phatique de reconnaissance mutuelle propre à tout dialogue interhumain se trouve réduite au minimum dans le cas d’un dialogue avec une machine. En témoigne par exemple le fait que l’utilisateur se dispense des contraintes habituelles de la politesse, [BIL 92]. Manifestement, il sait qu’il a affaire non à une véritable personne, mais à une machine. Pourtant, l’interaction n’est possible que si l’utilisateur joue le jeu dialogique et fait comme si la machine réagissait comme une personne, un véritable interlocuteur. En constituent la parfaite illustration les effets dialogiques puissants provoqués chez certains utilisateurs par le programme Elisa, programme pourtant caractérisé par sa totale indigence dialogique40. En fait, on a là l’exemple d’une posture intentionnelle qui, selon Daniel Dennett, gouverne l’interprétation des comportements humains, animaux et même machiniques41. Ainsi, l’utilisateur ne peut dialoguer avec une machine que s’il lui attribue – réellement ou sur le mode du comme si – une intentionnalité. Dans la perspective ambitieuse de l’élaboration d’interfaces « intelligentes », on peut prendre en compte cette posture intentionnelle en dotant la machine d’une capacité à simuler correctement le comportement dialogique d’une authentique personne. Ainsi, les recherches actuelles sur la gestion du « dialogue personnemachine » par les buts et les plans visent explicitement à prendre en compte les intentions de l’utilisateur et donc à doter en retour la machine d’une posture intentionnelle ! Nonobstant l’intérêt d’une telle stratégie de recherche, ceci ne répond pas à notre question des capacités intentionnelles – au sens pragmatique du terme – d’un système. Le philosophe pourra répliquer que, si intéressantes soient-elles, ces recherches ont leurs limites philosophiques en ce que l’intentionnalité de la machine est une 40. Ce programme, censé simuler un entretien non directif avec un psychologue rogérien, fut inventé en 1966 par Joseph Weizenbaum, voir [WEI 76]. 41. Voir [DEN 90]. Cette stratégie relève de l’antique tropisme anthropomorphique qui, par exemple, conduisit Aristote à attribuer des tendances aux objets en mouvement. Le fait que, sauf exception, depuis Galilée nous récusons l’interprétation aristotélicienne du mouvement des corps non animés montre que l’attribution intentionnelle est liée à une forme de vie. Communication interpersonnelle et personne-système 95 intentionnalité d’emprunt42. Les intentions dont fera preuve la machine ne seront que celles dont l’aura doté son concepteur et que lui prêtera son utilisateur. On retrouve ici à propos de l’intentionnalité pragmatique ce qui valait pour l’intentionnalité sémantique : la dimension d’artifice de « l’ intelligence » de la machine. Celle-ci s’avère pseudo-personne, pur simulacre. La « personnalité » de la machine n’est que l’ombre portée de la personne humaine qui la crée et qui l’utilise. Toutefois, cette limitation ne semble valoir que pour une machine ou un système informatique si sophistiqué soit-il. Qu’en est-il pour le robot ? Un robot intelligent se caractérise par son autonomie projective. Il possède ses propres objectifs, ses propres intentions. Un robot peut être programmé pour agir sur les cubes qu’il perçoit43. Cette action, distinguée du pur événement que serait le déplacement aléatoire du bras du robot, est soumise à une causalité téléologique : elle répond à une intention, un but. Ainsi un robot peut-il posséder une intentionnalité pragmatique minimale : la capacité d’agir sur le monde selon des intentions et un projet propres. Dès lors se pose, ou plus exactement pourra se poser pour le robot – et non la machine – la question axiologique de la valeur de ses actions. Cette autonomie projective, qui pourra s’accroître par auto-apprentissage, doit être contrôlée par un système de normes, de valeurs. Isaac Asimov avait prévu ce cas en imposant à ses robots futuristes ses fameuses trois lois : 1) un robot ne peut porter atteinte à un être humain et doit lui porter assistance en cas de danger ; 2) un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la première loi ; 3) un robot doit protéger son existence dans la mesure où cette protection n’est pas en contradiction avec la première ou la deuxième loi, [ASI 50]. Ceci évidemment relève encore de la science-fiction, mais manifeste bien à quelles conditions l’on pourra effectivement doter un système d’un réel comportement téléologique et axiologique. Si la question de la responsabilité d’un ordinateur ou d’un système informatique est proprement dénuée de sens, celle d’un robot se posera peut-être un jour ! 42. Je ne me prononce pas ici sur le débat intentionnalité dérivée/originelle. Par exemple, D. Dennett considère que l’intentionnalité humaine est tout aussi dérivée que celle de la machine dans la mesure où les hommes sont les artefacts de Dame Nature, voir [DEN 90, p. 390]. 43. le fameux programme SHRDLU de Terry Winograd était capable de dialoguer et d’agir sur un « univers des blocs » qui restait simulé, voir [WIN 72]. On peut concevoir que le système agisse effectivement sur les cubes. 96 Communication homme-système informationnels 4.5.1.4. Coopérativité On a vu que la personne humaine se définissait comme un coagent coopérant avec d’autres agents dans un procès de transaction sur des mondes. Qu’en est-il des systèmes ? Les ordinateurs individuels ont un rôle d’assistance à l’utilisateur. Ils interviennent comme outils intellectuels en mémorisant les données, calculant sur celles-ci, et en contribuant à la réalisation de documents divers. Quant aux systèmes informationnels distribué en réseaux, ils permettent en plus d’assurer une médiation entre les divers utilisateurs. A ce titre, ils facilitent la coopération entre les utilisateurs en gérant l’échange d’information, la répartition des tâches et des activités. Mais, dans les deux cas, la capacité coopérative du système est subordonnée à l’activité humaine et calquée sur ses propres besoins. Pour être efficace, le système doit se conformer au principe et aux règles de coopération qui gouvernent les transactions humaines. Mais ses actions possibles restent étroitement tributaires de finalités humaines prédéterminées. Ainsi, ces fonctions d’assistance et de médiation imposent généralement une coopération positive et excluent toute stratégie négative. Par exemple, on sait que Turing envisageait la possibilité pour les acteurs de son test de développer des stratégies de dissimulation, de mensonge : que l’homme se travestisse en se faisant passer pour une femme et que la machine se trompe délibérément dans des calculs arithmétiques44. Les systèmes actuels sont construits à partir de l’hypothèse du respect de la maxime de qualité selon laquelle les interlocuteurs sont sincères, [GRI 75, p. 61], et donc selon laquelle l’interaction dialogique est un procès purement rationnel. La feinte, le mensonge ne font pas partie des capacités des machines actuelles. Sauf exception45, on voit mal en quoi des stratégies dilatoires seraient nécessaires pour réaliser les buts qui leur sont assignés. A quoi servirait une machine qui accepterait une réservation de billets d’avion pour un vol imaginaire ou qui aurait pour dessein machiavélique de tromper systématiquement l’utilisateur ! Pour qu’un système possède une réelle capacité de coopération, il faudrait une fois encore faire l’hypothèse d’un robot intelligent pourvu d’une autonomie décisionnelle et d’une indépendance dans le choix de ses buts. Seulement alors, un tel robot pourrait éventuellement contrecarrer les actions humaines (dans les limites 44. Voir [TUR 83] : « Q : Ajoutez 34957 à 70764. - R : (Un silence d’à peu près 30 secondes, puis la réponse est donnée) 105621 ». Dans la traduction française p. 41, l’erreur est rectifiée ! Voir aussi p. 55. 45. Pour répondre à des tentatives de vol, certaines interfaces des distributeurs automatiques de billets de banque prévoient des stratégies dilatoires. Communication interpersonnelle et personne-système 97 du respect des règles de Asimov !) et n’interviendrait pas comme simple assistant et/ou de médiateur machinique. Au terme de notre examen, il apparaît clairement que les systèmes actuels sont loin de posséder toutes les caractéristiques requises pour en faire de véritables agents semblables à la personne humaine. En particulier, les ordinateurs individuels et les systèmes informationnels généralement utilisés ne possèdent qu’un minimum de conscience de soi, n’ont ni intentionnalité sémantique ni intentionnalité pragmatique et sont pourvus du minimum de capacité de coopération nécessaire pour en faire des assistants ou médiateurs étroitement asservis aux besoins humains. Ainsi, l’usage à leur propos de concepts valant spécifiquement pour l’homme demeure encore largement métaphorique. Ce constat théorique n’ôte cependant rien à leur indéniable intérêt technique. Mais il doit rester présent à l’esprit lorsque l’on s’interroge sur les possibilités d’un « dialogue » ou d’une « communication » de la personne avec de tels systèmes. Pour préciser les choses, abordons pour finir l’examen des capacités interactionnelles et transactionnelles de ces systèmes. 4.5.2. Les capacités interactionnelles d’un système Fournir une compétence dialogique à une machine revient, entre autres, à la doter d’un modèle dynamique de dialogue capable de traiter en temps réel les stratégies d’interaction communicationnelle. Dans les cas les plus simples, il est possible de construire un modèle de dialogue qui ait un degré raisonnable de prévisibilité. Un tel modèle joue le rôle de scénario d’interaction. Le type le plus simple d’interaction communicationnelle est le dialogue informatif élémentaire du genre interrogation d’une base de connaissances, ou d’un service de renseignement. En réinterprétant dialogiquement le modèle dynamique de Daniel Luzzati, [LUZ 92], j’ai tenté de montrer en quoi un dialogue informatif élémentaire du type de demande de renseignement SNCF était gouverné par un modèle projectif qui fonctionne comme un scénario implicite relevant de la compétence communicationnelle des interlocuteurs et gouvernant a priori leur comportement dialogique. Partagé ab initio par les interlocuteurs, ce modèle doit permettre de prévoir les interactions pertinentes qui assurent la convergence du dialogue et, a contrario, de mesurer les divergences et l’éventuel échec du dialogue. On peut alors assigner aux actes de discours des fonctions dialogiques différentes selon leurs places et rôles dans le procès dialogique. Ainsi, une assertion peut prendre des fonctions dialogiques fort différentes selon le type de dialogue en cause, et selon qu’elle est proférée par l’un ou l’autre des interlocuteurs à tel ou tel moment du dialogue, [VER 97, chapitre 6]. Dans un dialogue informatif élémentaire, émanant du répondant, une assertion pourra prendre fonction positive de réponse à une 98 Communication homme-système informationnels question, ou bien fonction critique de réplique ou même fonction négative de mise en cause qui atteint les présupposés d’un interlocuteur. Par exemple, si le demandeur ouvre un échange par la question : « A quelle heure part le premier TGV pour Viapres ? » la réponse pourra être : « A 12 h 46 », la réplique : « Que demandezvous ? », la mise en cause : « Il n’y a pas de TGV pour cette destination ! ». Figure 4.2. Modèle projectif d’un dialogue informatif Il est clair que ce modèle ne saurait s’appliquer à tous les types de dialogues, ni même ne prétend rendre compte de dialogues informatifs impliquant des tâches un tant soit peu complexes. L’interrogation d’une base de connaissances nous reconduit au dialogue de Socrate avec l’esclave de Ménon, c’est-à-dire à une interaction de forme dialogale mais à caractère très faiblement dialogique46. La machine joue le rôle du maître : elle est celle qui sait et que l’on interroge. La considération d’authentiques dialogues où l’enjeu est effectivement la coconstruction des interlocuteurs et du monde (par exemple pour une tâche de conception) requiert une modélisation autrement plus complexe. Les stratégies d’interaction sont alors moins contraignantes si bien que le dialogue peut enchaîner des séquences fort diverses47. La dimension dialogique est alors plus affirmée, les rôles ne sont plus prédéterminés et dissymétriques, les stratégies s’avèrent multiples, les buts doivent être conjointement déterminés. Les recherches actuelle sont pour objet de disposer de modèles et algorithmes rendant compte exhaustivement du procès interactionnel mis en jeu dans de tels dialogues complexes. 46. Sur la définition du dialogique et sa différence avec la forme dialogale, voir [VER 97, chapitre 5]. 47. [CAE 93] propose de distinguer six stratégies possibles : directive, réactive, négociée, coopérative, constructive, et dirigée par les intentions. Communication interpersonnelle et personne-système 99 Reste que, si sophistiquées soient-elles les stratégies interactionnelles sont tributaires de finalités transactionnelles. Dès lors, les capacités dialogiques d’un système sont dépendantes de ses aptitudes transactionnelles. 4.5.3. Ses possibilités transactionnelles En l’état actuel des recherches, à l’inverse d’une conversation de salon à fonction purement phatique, le dialogue personne-système est étroitement finalisé : il vise un échange d’information en vue de la réalisation d’une tâche nettement spécifiée (c’est-à-dire consultation d’horaires SNCF, réservation de billets d’avion, conception de plans, etc.). On comprend alors que l’analyse pragmatique requiert la considération de la tâche visée, la constitution d’un modèle de la tâche ayant pour objet de spécifier le vocabulaire, les scénarios impliqués, les stratégies autorisées. Une demande de réservation SNCF sera déterminée par le fait qu’un train est un moyen de transport d’une gare à l’autre, individualisé par un numéro, qu’il possède une heure de départ et d’arrivée, et de même par la connaissance de scénarios fixes tel celui relatif à l’achat du billet, aux conventions de réservation de places, etc. Considérer les seuls dialogues « orientés par la tâche » facilite grandement la modélisation informatique dans la mesure où les stratégies de planification imposées par une tâche clairement circonscrite ne mobilisent pas des connaissances d’arrièreplan démesurées. S’enquérir de l’heure d’arrivée d’un train ne requiert qu’un savoir limité sur le fonctionnement des transports ferroviaires. Mais même dans le cas où la tâche considérée est relativement sophistiquée – cas d’une tâche de conception – on est encore loin du jeu d’imitation imaginé par Turing dans la mesure où l’enjeu du dialogue est la découverte du sexe de l’interlocuteur48. Une telle tâche n’est pas triviale. En effet, elle fait appel à une connaissance de stéréotypes culturels qui tendent, dans nos sociétés où les marques de la différence sexuelle s’estompent, à devenir de plus en flous. L’exigence ici est celle d’une maîtrise d’un ensemble considérable de connaissances implicites. La difficulté est telle qu’elle peut sembler irrémissible. C’est ainsi que l’interprète, par exemple, Hubert Dreyfus : « Il est difficile de voir comment les diverses façons subtiles dont les choses nous concernent peuvent être entièrement énumérées »49. La question ultime 48. Descartes imposait des exigences encore plus fortes : insistant sur le fait que « la raison est un instrument universel qui peut servir en toutes sortes de rencontres », il récusait toute limitation portant sur le thème et la finalité du dialogue, voir Discours de la méthode, 5e partie. 49. [DRE 80, p. 741]. Fondamentalement, la question consiste à concilier une conception strictement représentationnelle du langage avec le recours ultime à un arrière-plan non représentationnel. Selon nous, seule une approche résolument actionnelle du langage est susceptible d’éviter ce dilemme. 100 Communication homme-système informationnels est celle de la modélisation des connaissances partagées par les interlocuteurs, la formalisation du réseau d’arrière-plan qui donne sens actionnel aux actes de discours effectués, et la possibilité pour le système d’accroître ce réseau par auto-apprentissage. A la fin de son article, Turing envisageait la construction d’une « machineenfant » pourvue d’un système perceptif et actionnel, capable d’imiter le processus social d’apprentissage [TUR 83, p. 61-67]. Les recherches actuelles en robotique avancée portent sur des robots mobiles – telles les artificial creatures de Brooks [BRO 91], – qui se programment par auto apprentissage lors de la transaction dynamique engendrée par leur perception du monde et les résultats de leurs actions sur celui-ci. L’objectif est alors clairement de doter le robot d’une capacité transactionnelle autonome50. On aboutit alors à une conception actionnelle de l’intelligence qui se dispense des difficultés de l’approche représentationnelle et cognitiviste. Un robot qui serait capable d’interaction avec l’utilisateur et de réelle transaction sur le monde constituerait une approximation pertinente de la « machineenfant » de Turing51. 4.6. Conclusion Au terme, il s’avère que la question de la communication personne-système ne saurait recevoir de réponse a priori. Tout dépend du type de système en cause. Les systèmes « intelligents », nos ordinateurs, constituent de précieux auxiliaires dans la recherche et la production des connaissances. Mais, par construction même, ils ne sont capables ni d’intentionnalité sémantique ni d’intentionnalité pragmatique. Parler à leur propos de dialogue ou de communication a valeur et fonction métaphoriques. De tels systèmes n’ont manifestement pas les capacités interactionnelles et transactionnelles leur permettant de jouer un véritable rôle d’interlocuteurs. Cependant la métaphore s’impose – et se justifie techniquement –dans la mesure où elle fonde la possibilité même d’une relation de l’utilisateur avec le système informatique, cet utilisateur faisant comme si la machine réagissait comme un véritable interlocuteur, et le concepteur s’appuyant sur cette métaphore pour construire un univers partageable à la fois par la machine et l’utilisateur. Il en ira tout autrement de la communication avec un système effectivement autonome et capable d’un minimum d’interaction et de transaction. Envisager des systèmes qui pourraient effectivement assumer le rôle d’interlocuteurs dans une interaction communicationnelle reviendrait à les rendre autonomes et capables d’intervenir par eux-mêmes dans leurs propres mondes. Avec la question de la corporéité surgit alors l’antique thème de la liberté. 50. On retrouve là l’orientation initiale de la cybernétique, voir [ROS 61]. Les auteurs tentaient de rendre compte de l’intention (purpose] en termes non mentalistes. 51. Dans son article, [BRO 91], Brooks situe explicitement sa démarche dans le prolongement des réflexions de Turing, [TUR 83, p. 5], sur sa « machine-enfant ». Communication interpersonnelle et personne-système 101 4.7. Bibliographie [ASI 50] ASIMOV I., Robot, J’ai lu, Paris, 1950. [AUS 70] AUSTIN J., Quand dire c’est faire, Seuil, Paris, 1970. [BEN 66] BENVENISTE E., Problèmes de linguistique générale, Tome 1, NRF, Gallimard, Paris, 1966. [BIL 92] BILANGE E., Le Dialogue personne-machine, Hermès, Paris, 1992. [BON 94] BONABEAU E., THERAULAZ G. (DIR.), Intelligence collective, Hermès, Paris, 1994. [BRE 44] BRENTANO F., Psychologie vom empirischen Standpunkt, LI & II (1874), tr. Aubier, Paris, 1944. [BRO 91] BROOKS R., « Intelligence Without Reason », Artificial Intelligence, p. 1-27, 1991. [CAE 93] C AELEN J., « Interaction homme-machine : théorie et pratique », 4e école d’été de l’ARC-PRC CHM, juillet 1993. [CHA 91] C HAUVIRE C., « PEIRCE, le langage et l’action », Les Etudes philosophiques, n° 1, 1979. [CHE 86] CHERNIACK C., Minimal Rationality, Cambridge MIT Press, 1986. [CHI 56] CHISHOLM R., « Sentences about Believing », Proceedings of the ARISTOTE in Society, 56, 1956. [DEN 90] DENNETT D., La Stratégie de l’interprète, Gallimard, Paris, 1990 (traduit par Pascal Engel de The Intentional Stance, MIT Press, 1987). [DRE 80] DREYFUS H., « Les ordinateurs peuvent-ils être vraiment intelligents ? », dans Critique, Les Philosophes anglo-saxons par eux-mêmes, août-septembre 1980. [GOF 87] GOFFMAN E., Façons de parler, Minuit, Paris, 1987. [GOO 78] GOODMAN N., Manières de faire des mondes, J. Chambon, 1992, tr. par MarieDominique Popelard de Ways of Worldmaking, Hackette Publishing Company, 1978. [GRI 75] GRICE P., « Logique et conversation », Communication, numéro spécial 30, Seuil, Paris, juin 1979, tr. de « Logic and Conversation », dans P. Cole et J.L. Morgan (dir.), Syntax and Semantics, vol. III, Speech Acts, Academic Press, 1975. [HAB 87] HABERMAS J., Théorie de l’agir communicationnel, Fayard, Paris, 1987. [JAC 82] J ACQUES F., Différence et subjectivité, Anthropologie d’un point de vue relationnel, Aubier, Paris, 1982. [KER 97] KERBRAT-ORECCHION I.C., « Variations culturelles et universaux dans le fonctionnement de la politesse linguistique », Le dialogique, sur les formes philosophiques, littéraires, linguistiques et cognitives du dialogue, Coll. Sciences pour la communication, Lang, Berne, 1997. [LAU 92] L AUGIER S., « Le dialogue et l’apprentissage du langage », dans D. Vernant (dir.), Du dialogue, Recherches sur la philosophie et le langage, n° 14, Vrin, Paris, 1992. 102 Communication homme-système informationnels [LUZ 92] LUZZATI D., « Un modèle dynamique pour le dialogue homme-machine », dans D. Vernant (dir.), Du dialogue, Recherches sur la philosophie et le langage, n° 14, Vrin, Paris, 1992. [NEW 57] NEWELL A., SHOW J.C., S IMON H.A., « Programming the Logic Theory Machine », Western Joint Computer Conference, p. 230-40, 1957. [PEI 31] PEIRCE C.S, Collected Papers, C. Hartshorne et P. Weiss (dir.), Cambridge, Massachusetts, Harvard University Press, 1931-1958. [POL 58] POLANYI M., Personal Knowledge, Routledge & Kegan Paul, Londres, 1958. [ROS 61] ROSENBLUETH A., WIENER N., ROSENBLUETH A., « Behavior, Purpose and Teleology », 1943, traduit dans Etudes philosophiques, n° 2, 1961. [SEA 85a] JOHN SEARLE J., L’intentionnalité, Editions de Minuit, Paris, 1985. [SEA 85b] JOHN SEARLE J., Du cerveau au savoir, Hermann, Paris, 1985. [SEA 92] JOHN SEARLE J., The Rediscovery of the Mind, MIT Press, 1992. [SIM 69] SIMON H.A., Sciences des systèmes, sciences de l’artificiel, Dunod, 1991, tr. par J.-L. Le Moigne de The Sciences of the Artificial, MIT, Cambridge, Etats-Unis, 1969. [STR 91] STROUD B., « The Background of Thought », dans E. Lepore et R. Van Gulick (dir.), John SEARLE and his Critics, Cambridge, Blackwell, 1991. [TRO 92] TROGNON A., BRASSAC C., « Enchaînement conversationnel », dans Cahiers de linguistique française, n° 13, p. 76-107, Genève, 1992. [TRP 94] TROGNON A, LARRUE J., Pragmatique du discours politique, Colin, Paris, 1994. [TUR 83] TURING A., « Computing Machinery and Intelligence », Mind, vol. LIX, n° 236, 1950, dans A.R. Anderson (dir.), Minds and Machine, Prentice-Hall, 1964, traduction par P. Blanchard, Coll. Milieux, Champ Vallon, 1983. [VER 86] VERNANT D., Introduction à la philosophie de la logique, Mardaga, Bruxelles, 1986. [VER 97] VERNANT D., Du Discours à l’action, PUF, Paris, 1997. [VER 98a] VERNANT D., « Les niveaux d’analyse des phénomènes communicationnels », dans B. Moulin et B. Chaib-Draa (dir.), Analyse et Simulation de conversations : De la théorie des actes de discours aux systèmes multiagents, L’Interdisciplinaire, Lyon, 1998. [VER 98b] VERNANT D., MANES GALLO M.C., « Pour une réévaluation pragmatique de l’assertion » et « Réponses aux objections : D’où nous viennent donc ces merveilleux brouillards bistrés », dans L’assertion en débat, la description du monde dans la conversation, Psychologie de l’interaction, n° 5-6, L’Harmattan, 1998. [VER 01] VERNANT D., Introduction à la logique standard, Flammarion, Paris, 2001. [WEI 76] WEIZENBAUM J., Computer Power and Human Reason: from Judgment to Calculation, W.H. Freeman, San Francisco, 1976. [WIN 72] WINOGRAD T., Understanding Natural Language, New York, Academic Press, 1972. [WIT 65] WITTGENSTEIN L., De la Certitude, Tel, Gallimard, 1965.