cr_seance_06_01_2006

publicité
DESS/Master d’Ethno-méthodologie et Informatique
Université Paris VIII
-----o-----
Observations de séance (Valéry Frémaux)
-----o----Jean-François Degrémont ; séance du 06 Janvier 2006
-----o----Je reprends ici le débat sur les conceptions ethno-cybernétiques ou anthropo-informatiques, débat
libre avec mes connaissances « actuarielles » (donc sans effectuer une recherche supplémentaire de
références explicites). J’y inclus quelques interprétations des exemples et démonstrations éminentes
de Jean-François (avec lequel je partage beaucoup de points de vues).
Fondements du débat
L’accroissement considérable de la puissance des processeurs et les avancées sur les modèles de
représentation cognitive conduisent à des expériences de « simulation de conversation » dont les
résultats sont étonnants.
A titre d’exemple du résultat de ce type de moteur de conversation, le site http://opale.multivers.net
(c’est un pote qui anime ça) présentant une forme humanoïde des derniers développements issus de
la généalogie1 du projet ELIZA.
Intelligence artificielle (ethno-cybernétique) et anthropo-informatique
A l’appui de la définition de ce que je nomme ethno-cybernétique, un certain nombre de
constatations ou d’interprétations des évolutions de la technologie actuelle qui poussent à considérer
qu’une machine cybernétique, si on dotait celle-ci de capacités neuronales comparables à celle de
l’homme, pourrait accéder à un comportement comparable à celui d’un cerveau humain. L’intelligence
artificielle considère alors l’apparence d’intelligence d’un système artificiel comme une preuve
« acceptable » d’une intelligence réelle. Autrement dit, un système qui fournirait des réponses
« suffisamment » construites pour que l’interlocuteur y trouve un sens (on lira à ce propos l’expérience
des « conseillers » racontée par Harold Garfinkel). Il s’agit là d’une approche pragmatique (ce qui est
important ne sont pas les « choses en soi », mais l’effet visible qu’elles ont sur nos façons de « voir »
et comprendre le monde). Les chercheurs en intelligences artificielle vont alors tenter de reconstruire
progressivement le fonctionnement de la pensée, en agrégeant des modèles cognitifs artificiels de
plus en plus évolués, additionnant des comportements de plus en plus complexes, et donc, en
apparence, de plus en plus « vivants ».
A l’opposé, ce que j’appellerai anthropo-informatique, comme une tentation de comprendre le
fonctionnement de notre cerveau à travers notre connaissance des architectures informatiques, qui,
en se complexifiant, nous permettent de modéliser de plus près des comportements perceptibles
(réflexivement) de notre propre mode de fonctionnement. L’anthropo-informatique peut, par les
hypothèses simplificatrices qu’elle se permet d’opérer sur des observations de notre compréhension,
aider à améliorer ou à comprendre certains autres phénomènes cognitifs de notre cerveau, améliorer
l’ergonomie de présentation d’information ou d’autres paradigmes de commande dont notre monde
technologique regorge.
L’éthnométhodologie peut être ici d’un grand secours, car nous n’avons souvent pas d’autre moyen
de connaître la façon dont certaines réalités sont perçues, comprises et pensées, qu’à travers ce que
nous en racontent les membres (nous ne sommes pas dans le cerveau de la personne qui perçoit, et
1
ELIZA est en effet le premier d’une lignée de moteurs dont l’AliceBot est un des descendants.
notre perception, trop subjective nous conduira souvent sur de fausses pistes) la réflexivité de notre
observation (lorsque nous nous pensons nous même penser) déforme les processus cognitifs à
l’œuvre dans notre cerveau. De « non intéressés » par nos éthnométhodes, nous devenons tout d’un
coup « intéressés », ce qui fausse la façon dont nous appliquons ces méthodes. La réflexivité d’une
auto-observation pose des problèmes d’objectivité du regard que nous portons sur nos processus de
pensée. L’analyse du discours de tiers pose le problème de l’indexicalité de la description qui sera
toujours imprécise et inexacte.
Ethno-cybernétisme
Pour reconstruire une certaine vision du cybernétisme, considérons un ordinateur placé dans une
pièce fermée avec une entrée (sous forme d’un clavier) et une sortie (sous forme d’un terminal textuel
sur lequel les réponses de la machine sont « imprimées »). Les « terminaux » de l’ordinateur sont
placés à l’extérieur de la pièce. L’ordinateur dispose d’un « programme » permettant de fournir
certaines réponses à des entrées précises. Par exemple, « Pomme » entré sur le clavier provoque
une réponse « Aime », et « Poire » provoque la réponse « Aime pas ». Et toute combinaison de fruit
avec « Poire » donne la réponse « Aime pas ». (Ce qui se code parfaitement avec un algorithme
combinatoire très simple). Maintenant plaçons à la place de l’ordinateur, un humain, dont les goûts
sont sensiblement équivalents à notre ordinateur, mais dont les seules possibilités de communication
avec l’extérieur sont les vecteurs que possédait l’ordinateur. On demande à l’opérateur de respecter le
vocabulaire, mais de répondre avec ses propres goûts subjectifs. On remplace par la suite l’opérateur
par un autre ordinateur qui répond aléatoirement aux questions, mais en conservant la cohérence des
réponses (c'est-à-dire que si une réponse a été donnée pour une entrée donnée, la même réponse
est utilisée, --- principe de consistance des réponses).
Que peut déduire un observateur placé à l’extérieur de la pièce ? Absolument rien. Les trois
expériences réalisées dans le désordre (le cobaye extérieur ne sait pas quand on actionne le
programme aléatoire, ni quand une vraie personne répond). Dans la limite des règles de
communication prescrites, et en conservant la consistance des réponses (aucun des « évaluateurs »
ne peut répondre « aime » et « aime pas » pour la même question), l’ordinateur qui exécute le
programme fournit des réponses « valables », aussi bien que l’humain qui donne ses propres goûts.
Cependant, l’interprétation que va faire le cobaye est fausse dans un deux cas sur trois, si on ne le
met même pas au courant qu'il s'agit de machines, et qu’on lui fait croire que trois personnes passent
à tour de rôle dans la pièce. L’ordinateur qui a exécuté le programme n’a fait que réagir à une entrée
déterminée. Il a répondu à un stimulus selon un procédé automatique déterministe, ou aléatoire dans
le troisième cas. Et pourtant, il a bel et bien associé un fruit à une opinion, ou bien n’a-t-il rien fait du
tout, car un ordinateur ne sait ni ce qu’est un fruit, ni ce qu’est une opinion. Les réponses qu’il donne
lui ont été mises par le programmeur. De même les systèmes experts très complexes ne savent pas
faire plus que redonner ce qu’on leur a appris. C’est le cas des algorithmes par analyse de cas, qui
augmentent une heuristique2 de réponse par rapport aux réponses fournies par une population test en
phase d’apprentissage. Autrement dit, ces machines « intelligentes » ne font qu’intégrer des données
préliminaires d’une autre manière que si nous les y programmions dedans. L’apparence d’intelligence
provient que la nature de ces données nous paraît à nous complexe, au regard de la façon dont notre
mémoire fonctionne, alors qu’elle ne paraît pas complexe à la machine qui dispose d’une capacité de
mémoire immédiate bien supérieure à la nôtre (en fait, nos mémoires ne fonctionnent pas de la même
façon).
Anthropo-informatique
L’anthropo-informatique conduit au contraire à essayer d’approcher le fonctionnement humain par
des analogies cybernétiques. Ces analogies ont été très fortement critiquées au XX° siècle, lorsque
les modèles comportementaux des programmes n’avaient pas encore été établis. Aujourd’hui, avec
2
Pour les non spécialistes de l’IA, ce type d’algorithme (analyse de cas) étudie à partir de tous les cas
« constatés » sur les entrées du système, une probabilité de pertinence. Ces probabilités sont assez basses au
départ. Si un membre de la population test donne une réponse qui confirme un des cas, cette probabilité
augmente. Si une réponse infirme l’un des cas, cette probabilité baisse. Les réponses qui sont données ensuite
par le système en mode « fonctionnement » vont dépendre de l’état de ces statistiques en fin d’apprentissage. Le
système peut continuer à apprendre, si on fournit aux utilisateurs un moyen de contester une réponse du système
expert, corrigeant alors a posteriori les heuristiques.
les recherches en cours sur la computation massivement parallèle, ou le multi-tâche complexe, de
nouvelles analogies sont possibles, qui permettent une approche modélisante de certains processus
cognitifs à l’œuvre dans certaines situations. Ce thème est l’une des possibilités de thème de mon
mémoire (du moins mon mémoire pourra-t-il donner une « amorce » à un travail dans cette direction).
Une approche anthropo-informatique est possible par exemple, pour étudier les processus à l’œuvre
pendant une phase de rédaction, pendant une phase de programmation ou de conception, dans
laquelle conceptualisation, pensée du modèle, perceptions des informations produites (sur une
application, un outil de conception), actions pour contrôler ou composer ces informations, mais aussi,
évaluation de l’effort, mesure de l’utilité, positionnement de l’action par rapport à un « plan
stratégique », résolution des contraintes, traitement des erreurs concourent ensemble à un
« accomplissement pratique » au sens de l’éthnométhodologie. Toutes ces manipulations mentales
sont des « accounts ». Elles sont descriptibles, transmissibles comme « façon de penser », « façons
d’utiliser », « façons de produire », et de ce fait, potentiellement objet d’étude éthnométhodologique.
Un point de convergence : le cyber-matérialisme
Ces deux approches, opposées dans leur point de départ, leur « sujet », convergent cependant
vers une vision commune, une « limite » comme diraient les mathématiciens, dans laquelle
l’intelligence artificielle et l’intelligence humaine peuvent se confondre (ou du moins être confondues).
La conception cyber-matérialiste qui en ressort élimine toute forme d’origine métaphysique ou
mystique à l’intelligence. Le cerveau brasse des systèmes de signes aussi froidement que le silicium
des puces, échangeant « quelques ions calcium et potassium » là ou un cerveau informatique
échangera des électrons. Le cerveau de notre ordinateur ne connaît strictement rien à
l’éthnométhodologie, mais il détient de l’information qui encode mon lexique sur le sujet. L’ordinateur
ne sait absolument pas ce qu’il encode. Encore une fois, il ne « sait pas », il ne « rien du tout ». De la
même manière, lorsque notre fournisseur d’accès nous donnait des suites de chiffres à rentrer dans
certaines « cases » (Adresse IP : 193.123.54.3 : Passerelle par défaut : 193.123.45.1, métrique : 1
etc. ) la plupart d’entre nous réagissent pareil. Nous stockons ces informations, les « indexons » sur
un bout de papier (parce qu’on nous a dit qu’elles étaient importantes), mais elles n’ont strictement
aucune signification pour nous. L’ordinateur, lui, peut s’en « servir » (il est difficile de ne pas tomber
dans une sémantique anthropocentrique). « Savons » nous beaucoup plus qu’une machine ?
Quelques écueils du cyber-matérialisme
Dans le débat et la démonstration audacieuse de Jean-François, quelques thèmes ont
soigneusement été évités. Le problème de l’auto-production-de-soi, qui confère au vivant des
« impératifs » biologiques particulier, et qui fondent l’évolutionnisme chrétien3 de Theillard de Chardin.
Un autre problème particulier est celui de l’intentionnalité, dont l’expression la plus « humaine » est
cette « pulsion de curiosité » (je n’arrive pas à retrouver la référence) commune au monde animal, et
qui pousse à la découverte du monde « autre », de l’altérité, le désir de connaissance, et enfin, la
novation, comme stade ultime de l’innovation, laquelle est souvent une nouvelle émergence d’un
système assemblé au hasard (il n’est pas rare de définir l’innovation comme l’émergence d’une
« forme », au sens de la Gestalt, issue de la réunion de deux concepts, idées ou objets que personne
n’avait eu l’occasion d’assembler avant. L’innovation ou « l’invention » au sens Lépine est alors
soumise à une pression fondamentalement génétique dont dépendra son succès, sa survie, et sa
généralisation ou au contraire son oubli). La dernière qui me vient à l’esprit (et là je me fais, si je peux
m’exprimer ainsi, l’avocat du diable) est celle de l’idée même de transcendance, dont je ne vois pas
comment, pour l’instant, une machine cybernétique pourrait faire émerger le concept à moins qu’elle
ne le fasse comme la plupart des autres significations : sans conscience des signes qu’elle manipule.
L’intelligence et la conscience ne sont donc qu’une apparence…
Je vous laisse là dessus.
3
P. Theillard de Chardin, Le phénomène humain, Seuil Ppints, 1955
Téléchargement