DESS/Master d’Ethno-méthodologie et Informatique Université Paris VIII -----o----- Observations de séance (Valéry Frémaux) -----o----Jean-François Degrémont ; séance du 06 Janvier 2006 -----o----Je reprends ici le débat sur les conceptions ethno-cybernétiques ou anthropo-informatiques, débat libre avec mes connaissances « actuarielles » (donc sans effectuer une recherche supplémentaire de références explicites). J’y inclus quelques interprétations des exemples et démonstrations éminentes de Jean-François (avec lequel je partage beaucoup de points de vues). Fondements du débat L’accroissement considérable de la puissance des processeurs et les avancées sur les modèles de représentation cognitive conduisent à des expériences de « simulation de conversation » dont les résultats sont étonnants. A titre d’exemple du résultat de ce type de moteur de conversation, le site http://opale.multivers.net (c’est un pote qui anime ça) présentant une forme humanoïde des derniers développements issus de la généalogie1 du projet ELIZA. Intelligence artificielle (ethno-cybernétique) et anthropo-informatique A l’appui de la définition de ce que je nomme ethno-cybernétique, un certain nombre de constatations ou d’interprétations des évolutions de la technologie actuelle qui poussent à considérer qu’une machine cybernétique, si on dotait celle-ci de capacités neuronales comparables à celle de l’homme, pourrait accéder à un comportement comparable à celui d’un cerveau humain. L’intelligence artificielle considère alors l’apparence d’intelligence d’un système artificiel comme une preuve « acceptable » d’une intelligence réelle. Autrement dit, un système qui fournirait des réponses « suffisamment » construites pour que l’interlocuteur y trouve un sens (on lira à ce propos l’expérience des « conseillers » racontée par Harold Garfinkel). Il s’agit là d’une approche pragmatique (ce qui est important ne sont pas les « choses en soi », mais l’effet visible qu’elles ont sur nos façons de « voir » et comprendre le monde). Les chercheurs en intelligences artificielle vont alors tenter de reconstruire progressivement le fonctionnement de la pensée, en agrégeant des modèles cognitifs artificiels de plus en plus évolués, additionnant des comportements de plus en plus complexes, et donc, en apparence, de plus en plus « vivants ». A l’opposé, ce que j’appellerai anthropo-informatique, comme une tentation de comprendre le fonctionnement de notre cerveau à travers notre connaissance des architectures informatiques, qui, en se complexifiant, nous permettent de modéliser de plus près des comportements perceptibles (réflexivement) de notre propre mode de fonctionnement. L’anthropo-informatique peut, par les hypothèses simplificatrices qu’elle se permet d’opérer sur des observations de notre compréhension, aider à améliorer ou à comprendre certains autres phénomènes cognitifs de notre cerveau, améliorer l’ergonomie de présentation d’information ou d’autres paradigmes de commande dont notre monde technologique regorge. L’éthnométhodologie peut être ici d’un grand secours, car nous n’avons souvent pas d’autre moyen de connaître la façon dont certaines réalités sont perçues, comprises et pensées, qu’à travers ce que nous en racontent les membres (nous ne sommes pas dans le cerveau de la personne qui perçoit, et 1 ELIZA est en effet le premier d’une lignée de moteurs dont l’AliceBot est un des descendants. notre perception, trop subjective nous conduira souvent sur de fausses pistes) la réflexivité de notre observation (lorsque nous nous pensons nous même penser) déforme les processus cognitifs à l’œuvre dans notre cerveau. De « non intéressés » par nos éthnométhodes, nous devenons tout d’un coup « intéressés », ce qui fausse la façon dont nous appliquons ces méthodes. La réflexivité d’une auto-observation pose des problèmes d’objectivité du regard que nous portons sur nos processus de pensée. L’analyse du discours de tiers pose le problème de l’indexicalité de la description qui sera toujours imprécise et inexacte. Ethno-cybernétisme Pour reconstruire une certaine vision du cybernétisme, considérons un ordinateur placé dans une pièce fermée avec une entrée (sous forme d’un clavier) et une sortie (sous forme d’un terminal textuel sur lequel les réponses de la machine sont « imprimées »). Les « terminaux » de l’ordinateur sont placés à l’extérieur de la pièce. L’ordinateur dispose d’un « programme » permettant de fournir certaines réponses à des entrées précises. Par exemple, « Pomme » entré sur le clavier provoque une réponse « Aime », et « Poire » provoque la réponse « Aime pas ». Et toute combinaison de fruit avec « Poire » donne la réponse « Aime pas ». (Ce qui se code parfaitement avec un algorithme combinatoire très simple). Maintenant plaçons à la place de l’ordinateur, un humain, dont les goûts sont sensiblement équivalents à notre ordinateur, mais dont les seules possibilités de communication avec l’extérieur sont les vecteurs que possédait l’ordinateur. On demande à l’opérateur de respecter le vocabulaire, mais de répondre avec ses propres goûts subjectifs. On remplace par la suite l’opérateur par un autre ordinateur qui répond aléatoirement aux questions, mais en conservant la cohérence des réponses (c'est-à-dire que si une réponse a été donnée pour une entrée donnée, la même réponse est utilisée, --- principe de consistance des réponses). Que peut déduire un observateur placé à l’extérieur de la pièce ? Absolument rien. Les trois expériences réalisées dans le désordre (le cobaye extérieur ne sait pas quand on actionne le programme aléatoire, ni quand une vraie personne répond). Dans la limite des règles de communication prescrites, et en conservant la consistance des réponses (aucun des « évaluateurs » ne peut répondre « aime » et « aime pas » pour la même question), l’ordinateur qui exécute le programme fournit des réponses « valables », aussi bien que l’humain qui donne ses propres goûts. Cependant, l’interprétation que va faire le cobaye est fausse dans un deux cas sur trois, si on ne le met même pas au courant qu'il s'agit de machines, et qu’on lui fait croire que trois personnes passent à tour de rôle dans la pièce. L’ordinateur qui a exécuté le programme n’a fait que réagir à une entrée déterminée. Il a répondu à un stimulus selon un procédé automatique déterministe, ou aléatoire dans le troisième cas. Et pourtant, il a bel et bien associé un fruit à une opinion, ou bien n’a-t-il rien fait du tout, car un ordinateur ne sait ni ce qu’est un fruit, ni ce qu’est une opinion. Les réponses qu’il donne lui ont été mises par le programmeur. De même les systèmes experts très complexes ne savent pas faire plus que redonner ce qu’on leur a appris. C’est le cas des algorithmes par analyse de cas, qui augmentent une heuristique2 de réponse par rapport aux réponses fournies par une population test en phase d’apprentissage. Autrement dit, ces machines « intelligentes » ne font qu’intégrer des données préliminaires d’une autre manière que si nous les y programmions dedans. L’apparence d’intelligence provient que la nature de ces données nous paraît à nous complexe, au regard de la façon dont notre mémoire fonctionne, alors qu’elle ne paraît pas complexe à la machine qui dispose d’une capacité de mémoire immédiate bien supérieure à la nôtre (en fait, nos mémoires ne fonctionnent pas de la même façon). Anthropo-informatique L’anthropo-informatique conduit au contraire à essayer d’approcher le fonctionnement humain par des analogies cybernétiques. Ces analogies ont été très fortement critiquées au XX° siècle, lorsque les modèles comportementaux des programmes n’avaient pas encore été établis. Aujourd’hui, avec 2 Pour les non spécialistes de l’IA, ce type d’algorithme (analyse de cas) étudie à partir de tous les cas « constatés » sur les entrées du système, une probabilité de pertinence. Ces probabilités sont assez basses au départ. Si un membre de la population test donne une réponse qui confirme un des cas, cette probabilité augmente. Si une réponse infirme l’un des cas, cette probabilité baisse. Les réponses qui sont données ensuite par le système en mode « fonctionnement » vont dépendre de l’état de ces statistiques en fin d’apprentissage. Le système peut continuer à apprendre, si on fournit aux utilisateurs un moyen de contester une réponse du système expert, corrigeant alors a posteriori les heuristiques. les recherches en cours sur la computation massivement parallèle, ou le multi-tâche complexe, de nouvelles analogies sont possibles, qui permettent une approche modélisante de certains processus cognitifs à l’œuvre dans certaines situations. Ce thème est l’une des possibilités de thème de mon mémoire (du moins mon mémoire pourra-t-il donner une « amorce » à un travail dans cette direction). Une approche anthropo-informatique est possible par exemple, pour étudier les processus à l’œuvre pendant une phase de rédaction, pendant une phase de programmation ou de conception, dans laquelle conceptualisation, pensée du modèle, perceptions des informations produites (sur une application, un outil de conception), actions pour contrôler ou composer ces informations, mais aussi, évaluation de l’effort, mesure de l’utilité, positionnement de l’action par rapport à un « plan stratégique », résolution des contraintes, traitement des erreurs concourent ensemble à un « accomplissement pratique » au sens de l’éthnométhodologie. Toutes ces manipulations mentales sont des « accounts ». Elles sont descriptibles, transmissibles comme « façon de penser », « façons d’utiliser », « façons de produire », et de ce fait, potentiellement objet d’étude éthnométhodologique. Un point de convergence : le cyber-matérialisme Ces deux approches, opposées dans leur point de départ, leur « sujet », convergent cependant vers une vision commune, une « limite » comme diraient les mathématiciens, dans laquelle l’intelligence artificielle et l’intelligence humaine peuvent se confondre (ou du moins être confondues). La conception cyber-matérialiste qui en ressort élimine toute forme d’origine métaphysique ou mystique à l’intelligence. Le cerveau brasse des systèmes de signes aussi froidement que le silicium des puces, échangeant « quelques ions calcium et potassium » là ou un cerveau informatique échangera des électrons. Le cerveau de notre ordinateur ne connaît strictement rien à l’éthnométhodologie, mais il détient de l’information qui encode mon lexique sur le sujet. L’ordinateur ne sait absolument pas ce qu’il encode. Encore une fois, il ne « sait pas », il ne « rien du tout ». De la même manière, lorsque notre fournisseur d’accès nous donnait des suites de chiffres à rentrer dans certaines « cases » (Adresse IP : 193.123.54.3 : Passerelle par défaut : 193.123.45.1, métrique : 1 etc. ) la plupart d’entre nous réagissent pareil. Nous stockons ces informations, les « indexons » sur un bout de papier (parce qu’on nous a dit qu’elles étaient importantes), mais elles n’ont strictement aucune signification pour nous. L’ordinateur, lui, peut s’en « servir » (il est difficile de ne pas tomber dans une sémantique anthropocentrique). « Savons » nous beaucoup plus qu’une machine ? Quelques écueils du cyber-matérialisme Dans le débat et la démonstration audacieuse de Jean-François, quelques thèmes ont soigneusement été évités. Le problème de l’auto-production-de-soi, qui confère au vivant des « impératifs » biologiques particulier, et qui fondent l’évolutionnisme chrétien3 de Theillard de Chardin. Un autre problème particulier est celui de l’intentionnalité, dont l’expression la plus « humaine » est cette « pulsion de curiosité » (je n’arrive pas à retrouver la référence) commune au monde animal, et qui pousse à la découverte du monde « autre », de l’altérité, le désir de connaissance, et enfin, la novation, comme stade ultime de l’innovation, laquelle est souvent une nouvelle émergence d’un système assemblé au hasard (il n’est pas rare de définir l’innovation comme l’émergence d’une « forme », au sens de la Gestalt, issue de la réunion de deux concepts, idées ou objets que personne n’avait eu l’occasion d’assembler avant. L’innovation ou « l’invention » au sens Lépine est alors soumise à une pression fondamentalement génétique dont dépendra son succès, sa survie, et sa généralisation ou au contraire son oubli). La dernière qui me vient à l’esprit (et là je me fais, si je peux m’exprimer ainsi, l’avocat du diable) est celle de l’idée même de transcendance, dont je ne vois pas comment, pour l’instant, une machine cybernétique pourrait faire émerger le concept à moins qu’elle ne le fasse comme la plupart des autres significations : sans conscience des signes qu’elle manipule. L’intelligence et la conscience ne sont donc qu’une apparence… Je vous laisse là dessus. 3 P. Theillard de Chardin, Le phénomène humain, Seuil Ppints, 1955