bulletin de psychologie / tome 51 (3) /435/ mai-juin 1998 Piaget et les chimères conceptuelles : éloge du constructivisme Joël BRADMETZ* Nos premiers et lointains contacts avec l’œuvre de Piaget nous ont conduit à un rapprochement qui ne s’est jamais altéré ensuite entre la fécondité et la maîtrise de cet auteur et celles de Bach, que bien peu de musiciens ne considèrent pas comme le plus grand des maîtres. Dès les premiers écrits des années vingt se manifeste chez Piaget la formidable pression d’une vision cohérente et inaugurale du monde mental de l’enfant et même si, à l’instar du Bach d’avant la quarantaine qui tombe parfois dans le piège des séquences similaires, Piaget paraît parfois à l’étroit dans ses premiers cadres de pensée, il ne bascule jamais dans l’ennui du fugato romantique qui parvient mal à dissimuler le vide intérieur, et il fait preuve d’une précision et d’une pertinence conceptuelles proprement révolutionnaires en psychologie de l’enfant. C’est dire si s’attaquer à la lecture critique d’une telle œuvre fait courir le risque de passer pour un de ces petits maîtres du menuet qui conseillaient, ça et là, des retouches à l’Art de la fugue. Il est toutefois impossible de s’y dérober car, bien qu’à de nombreux égards Piaget, en donnant sa vision du monde mental, ait produit une œuvre d’art qui ne mérite pas plus la relégation que les toiles impressionnistes ne méritent d’être remplacées dans les musées par celles des cubistes, la science n’a évidemment pas pour seule mission d’être contemplative. Nous allons diviser cet article en deux parties relativement indépendantes. Nous rapporterons d’abord quelques résultats obtenus au moyen d’une longue recherche à propos de la forme du développement de la pensée opératoire puis, après en avoir montré les limites, dues autant à l’imperfection de notre travail qu’à la résistance intrinsèque à la falsification de la théorie de Piaget, nous discuterons une sous-théorie particulièrement exposée actuellement : le constructivisme. Nous aurons réussi au-delà de toute espérance si quelques lecteurs se persuadent que la psychologie est avant tout, et de façon autonome, une science de la signification et que la tension du mental vers l’herméneutique et l’intelligibilité est une condition déterminante de la construction conceptuelle, celle-ci ne couvrant pas, évidemment, l’ensemble de la cognition. Notre contribution à l’étude critique de la théorie opératoire a essentiellement porté sur la forme du développement de l’intelligence, avec l’idée sous-jacente d’examiner la solidité de la théorie constructiviste. Piaget l’a répété à l’envie, il n’est devenu psychologue que par hasard, intéressé avant tout par la théorie de la connaissance. Et pourtant, il se pourrait que, semblable à un Cuvier dont on salue les travaux paléontologiques malgré les idées anti-évolutionnistes ou à un Gall dont on reconnaît les intuitions modularistes malgré la phrénologie, Piaget voit la psychologie des années à venir ne retenir que l’architecture conceptuelle décrivant les objets mentaux qu’il a conçus et en dehors de laquelle aucune position des problèmes ne semble concevable (même dans les domaines qu’on lui conteste le plus, tel que celui des compétences des nourrissons), et se détourner de tous les efforts qu’il a consacrés à l’élucidation des mécanismes par lesquels peut apparaître une connaissance nouvelle. Piaget ne fournit pas de modèles contraignants de la covariation statistique et il a toujours travaillé sur des groupes indépendants. Sa conception de l’idiosyncrasie des cheminements individuels (qui fait bruit à la théorie du développement avec les décalages non systématiques) n’est même que partiellement compatible avec la théorie de l’erreur de mesure puisqu’on sait la répulsion avec laquelle il considère que la réponse psychologique puisse être produite par le hasard. Nous avons pensé (*) Université de Franche-Comté. 296 qu’il était toutefois possible de tester efficacement quelques idées centrales de son système avec des statistiques développementales. C’est le projet que nous avons conduit pendant une dizaine d’années sur la base d’une étude longitudinale au cours de laquelle il a été procédé à 13 000 entretiens individuels, selon la méthode d’interrogation clinique de Piaget, avec 104 enfants rencontrés lors de 5 occasions annuelles (de 4;6 à 8;6) et soumis, à chacune de ces occasions, à 25 épreuves opératoires (3 relatives à la logique des classes ; 3 à la logique des relations ; 4 à l’acquisition du nombre ; 4 à l’espace topologique ; 4 à l’espace projectif ; 4 à l’espace euclidien ; 2 au temps et 1 à la conservation de la substance). A tous les âges entre 4;6 et 8;6 et pour toutes les épreuves, le système de cotation est invariant et comporte quatre niveaux. Le niveau 3 est celui des réponses opératoires où l’invariant résiste à la contre-argumentation. Le niveau 1 est celui de la mise en place des pré-catégories de pensée, formes matricielles des futurs invariants (par exemple l’enfant sait ce qu’est la longueur ou la durée puisqu’il est capable de comparer deux longueurs ou deux durées disjointes mais il est incapable de conserver les longueurs ou d’emboîter les durées) avant l’apparition desquelles (entre 4 et 5 ans en général) les enfants sont, comme on dit, intestables (niveau 0 dans notre nomenclature), parce qu’ils ne comprennent pas ce qu’on attend d’eux et ont une autre lecture des choses : par exemple la centration sur la forme et sa signification éventuelle faute de disposer de la masse : « il y a plus de pâte ici parce que là c’est un ballon et là c’est un serpent », Le niveau 2 est celui des premiers détachements d’une lecture figurative (centration sur les correspondances) et d’une prise en compte des transformations. Les enfants de ce niveau sont intermédiaires, ils donnent des réponses convenables et parfois argumentées dans certaines situations mais/ou ils ne résistent pas à la contre-argumentation. Le lecteur peut trouver une description de ces épreuves dans Bradmetz (1992 a), l’ensemble des analyses conduites dans Bradmetz (1992 a ; b ; c ; et d ; 1993 ; 1995 ; 1996) et un complément relatif au stade formel chez les mêmes enfants revus à 15;6 dans Bradmetz (sous presse). L’ensemble des observations réalisées a permis d’apporter quelques précisions utiles sur la forme du développement et de montrer que certaines hypothèses différentielles ne reçoivent aucun élément de confirmation empirique. Ces observations, dont nous allons passer les principales en revue, fournissent un tableau contrasté des constats statistiques, elles ne permettent pas de décider de façon claire si les alternatives entre les différentes théories de l’apprentissage peuvent être tranchées. Elles laissent en conséquence ouvert le problème de l’évaluation de la théorie constructiviste qui doit, selon notre point de vue, s’enrichir de modèles interdisciplinaires et de nouveaux paradigmes expérimentaux. C’est donc à une réflexion sur l’apprentissage (c.-à-d., chez Piaget, la création et l’invention) que nous consacrerons la seconde partie de cet article. Forme générale du développement opératoire Lors de chaque occasion annuelle, de 4;6 à 8;6, la fidélité de la batterie de 25 épreuves est élevée et constante (α de Cronbach = .892 ; .904 ; .899 ; .905 et .917). L’étude du pattern des corrélations inter-occasions révèle, pour le score global, une organisation en simplexe et un processus markovien sous-jacent, c’est-à-dire que chaque score annuel est une combinaison d’une fonction du score de l’occasion précédente et d’un terme d’erreur : S (On) = f (S (On-1» + εn avec S= scores: Oi = occasions ; εi = termes d’erreur non-corrélés entre eux ni avec les S. Ce pattern développemental, fondé sur un processus de transition sans mémoire autre que celle de l’état précédent, est compatible aussi bien avec le constructivisme qu’avec l’apprentissage behavioriste (voir Bloom, 1964). Il accompagne et confirme la stabilité du niveau de développement (âge mental ou QI) et confirme l’existence d’un fort facteur de régulation des progrès, sans pouvoir dire s’il s’agit de structures de complexité croissante, d’augmentation des capacités de calcul avec la croissance (charge mentale) ou d’une homogénéisation des acquisitions liée à un quelconque autre facteur (p. ex. le milieu scolaire et social chez les behavioristes qui rendent compte des ressemblances entre enfants par les caractéristiques uniformes de l’environnement qu’ils connaissent tous dans une société et à un âge donnés). Le corollaire de ce pattern est une régularité dans la régression vers la moyenne, c’est-àdire que les notes de changement d’une occasion à l’autre (les progrès réalisés) sont négativement corrélées avec le score de l’année n-1 et positivement avec celui de l’année n. Cette logique de brassage contrarie l’idée de types intellectuels (spatiaux, logiques, etc.), nous le confirmerons d’une autre façon. Structures factorielles Il existe une littérature sur les facteurs de l’intelligence opératoire qui tente, soit de mettre en évidence des facteurs regroupant les tâches parentes dans la théorie sous un rapport donné: numérique, spatial, conservations, etc. (p. ex. Inman et Secrest, 1981), soit de découvrir des typologies de sujets (p. ex. Lautrey, Rieben, de Ribeaupierre, 1986, pour la catégorisation infralogique vs logico-mathématique), soit de préciser les liens (très étroits en général) entre les évaluations psychométriques classiques et les évaluations opératoires (Carroll, Kohlberg et de Vries, 1984 ; Humphreys et Parsons, 1979 ; Humphreys, Rich et Davey, 1985 ; Stephens, McLaughlin, Miller et Glass, 1972). En dehors des critiques de détail que l’on peut formuler à l’encontre de telle ou telle de ces études (p. ex. pseudo-facteur lié à l’uniformisation des réponses en raison de la forme des épreuves et non de leur contenu ; cotation en termes de réussite ou d’échec à des items et non en termes d’estimation de niveau ou de stade ; etc.), aucune d’entre elles ne considère, à notre connaissance, des mesures répétées recueillies de façon longitudinale, excepté celle de Hooper, Swinton et Sipple (1979) qui suivent trois groupes d’enfants pendant quatre ans (de 5 à 8 ans ; de 8 à 11 ans et de 11 à 14 ans) et concluent à une forme approximativement linéaire du développement opératoire et à une étroite liaison avec le développement des capacités de traitement de l’information, notamment mémoire visuelle et empan de la mémoire de travail. Dans notre travail, l’étude factorielle intraoccasions révèle, pour chaque année, des patterns d’analyse en composantes principales similaires: un facteur général expliquant environ 30 % de la variance, un second facteur qui tombe à moins de 10 % et une décroissance linéaire ensuite de la variance expliquée par les facteurs suivants, associée à une impossibilité de les interpréter clairement. Le poids relativement faible du facteur général s’explique par l’homogénéité de l’échantillon où les sujets les plus extrêmes n’ont que quelques mois d’écart, la variance liée à l’âge réel est donc réduite 297 (tous les sujets sont examinés lors de chaque occasion à plus ou moins deux mois de la date de leur demi-anniversaire, l’écart maximal théorique entre les âges de deux enfants est donc de quatre mois). Une analyse en facteurs communs, qui utilise les corrélations multiples en diagonale de la matrice de corrélations, fait monter la variance expliquée par le premier facteur aux environs de 60%. Le fait le plus notable est que la composition du facteur général change chaque année et évolue en fonction de la sensibilité génétique des épreuves, différente à chaque âge. Ainsi, à 4;6 et 5;6, ce facteur général est essentiellement représenté par des épreuves sollicitant la logique des relations, les remises en ordre, les sériations. A 6;6 (année du cours préparatoire), exceptée la sériation, ce sont tous les invariants de conservation qui sont en tête et qui le resteront jusqu’à 8;6, les conservations de la substance et du nombre se révélant les meilleures et les plus classantes des épreuves pour les deux dernières années. Il est à noter que la logique des classes (inclusion, intersection et multiplication de classes) n’est jamais représentée dans le peloton de tête et arrive assez loin derrière lors de chaque analyse, ce qui peut paraître surprenant étant donné le rôle que la théorie lui fait jouer dans le développement. L’analyse factorielle des correspondances multiples (conduite sur le tableau de Burt des résultats) aboutit aux mêmes constats: aucune structure annuelle n’est clairement interprétable et aucune typologie ne se dégage, même provisoire, entre le logique et le spatial. Problèmes de variabilité La variabilité interindividuelle des performance est élevée, tout-à-fait comparable à celle que l’on observe dans la dispersion des QI à un âge donné (pour les principales données de la littérature sur ce point, voir Brim et Kagan, 1980). La variabilité intra-individuelle, qui touche plus directement au problème des stades, puisque, plus on suppose que ceux-ci ont un effet structurant et homogénéisateur, plus elle doit être faible, est également assez élevée et confirme des données classiques de la littérature depuis les premiers travaux de Dodwell (1960, 1962, 1963). Il est fréquent, et même presque systématique, qu’un sujet présente, lors d’une occasion donnée, un écart de deux niveaux entre deux des 25 épreuves qui lui sont 298 soumises. A ces décalages sont associées des sources de variation liées à la mobilisation et à l’expression de la performance (voir en particulier, à propos des régressions, Bradmetz, 1992 c). Un point essentiel est l’étude des changements intra-individuels, c’est-à-dire la stabilité des patterns de réponses des sujets d’une occasion à l’autre. Cette étude permet, en effet, de faire la part des facteurs idiosyncrasiques et de la force normative inhérente à la théorie des stades. Nous avons dit que certains auteurs différentialistes ont esquissé (mais non confirmé expérimentalement) des typologies en supposant une stabilité des profils de réponses. L’étude longitudinale est évidemment indispensable dans un tel cas car, même si un groupe d’épreuves montre, à tous les âges, une structure factorielle identique, rien ne dit que les sujets conservent des composantes en facteurs identiques. On peut, en guise d’illustration, donner l’image d’un peloton de coureurs cyclistes qui présenterait, à des moments différents de la course, et vu d’hélicoptère, toujours la même apparence (p. ex. quelques échappés, un groupe de poursuivants, le gros du peloton et un groupe de retardés), mais dont l’examen des dossards révélerait une importante redistribution des rôles à chacun de ces moments, un même coureur pouvant tour à tour appartenir à divers groupes. Il est clair qu’il serait abusif d’inférer des typologies de coureurs à partir de la simple comparaison de plusieurs de ces clichés aériens. De cinq façons différentes (dont une recherche de relations non-linéaires par une méthode connexionniste), nous avons étudié ce problème et abouti à des conclusions convergentes sur l’absence de stabilité des profils, cette absence étant en partie déterminée par la logique de la régression vers la moyenne (cf. Bradmetz, 1992 a, 1995). En d’autres termes, le format des objets mentaux que l’enfant peut manipuler entrave les spécialisations précoces, gouverne l’ensemble de son activité cognitive et impose des limites inférieures et supérieures à ses performances. Les épreuves piagétiennes sont d’élégantes preuves de l’existence de ces limites en sollicitant l’enfant dans des situations inhabituelles et en lui posant des questions qu’il ne se pose jamais, en révélant ainsi ses capacités d’élaboration spontanées des réponses. Exploitant ce caractère insolite, certains auteurs ont avancé l’idée d’un artefact : les épreuves piagétiennes seraient comparables à des illusions perceptives visant à mettre en défaut des mécanismes d’inhibition ou d’activation. On ne peut guère prendre cet argument au sérieux pour deux raisons au moins. D’une part, le parallèle n’est pas satisfaisant puisqu’une illusion ne se dissipe pas avec le développement (au contraire, les illusions secondaires voient leurs effets croître), alors qu’un concept opératoire finit par être acquis. D’autre part, c’est la nature même de l’expérience que d’être insolite et de mettre le monde dans une situation inaugurale. En confrontant l’enfant à de la pâte à modeler qui se déforme, Piaget crée de toutes pièces la situation qui provoque le monde. Qui dirait que l’expérience de Michelson et Morley ou que celle de Pasteur vaccinant des moutons ont pris le monde au dépourvu ? Les stades Bien que la mise en évidence des stades soit délicate, car elle présuppose que la métrique utilisée pour apprécier le développement soit exempte de tout artefact, nous avons tenté d’apprécier si, dans le passage de l’analyse des correspondances à celles des transformations (niveaux 1 et 2 des épreuves, cf. Piaget, 1980), il était possible de déceler une accélération et une homogénéisation temporaires du développement (nous avions choisi la métaphore de la percolation). L’analyse statistique confirme cette vue (Bradmetz, 1993) et permet de supposer, autour de six ans en moyenne, un changement de paradigme dans l’analyse des situations: même si les causes en demeurent en partie inconnues (accroissement de l’espace mental, réorganisation et/ou redescription de la motricité, etc.), l’enfant commence, sous le sensible, à laisser percer l’intelligible, et il le fait d’une façon qui, sans être systématique, touche significativement l’ensemble de son activité intellectuelle. L’organisation diachronique des conduites L’organisation des conduites dans le temps est étroitement liée à la théorie constructiviste. Piaget a formulé, par exemple, des hypothèses précises sur la filiation entre la logique et le nombre et sur les réorganisations de la représentation de l’espace en fonction de ses invariants successifs (voisinage, ligne droite, longueur et distance). Retrouver des traces statistiques de ces filiations serait une précieuse confirmation (non-démonstrative) de la pé- nétration de cette conception. Plusieurs modèles de régression ont été utilisés à cette fin, mais sans succès. Autant pour le nombre (Bradmetz, 1992 b) que pour l’espace (id. 1992 d), il n’a pas été possible de valider un quelconque modèle de détermination diachronique des conduites. Ces faits ne constituent pas à proprement parler une falsification des idées constructivistes car rien ne dit que les sources de variation supposées (p. ex. classes + relations = nombre) agissent selon une composition additive transparente et, d’autre part, il n’est pas exclu que ce mécanisme de synthèse et d’influence réciproque ne soit intelligible et explicite pour le sujet qu’a posteriori, c’ est-à-dire une fois que l’essentiel du concept est construit et que le niveau de performance est optimal. C’est un phénomène de ce type qui a été observé à propos des liens entre les relations et le nombre : alors que l’analyse logique laisse attendre que le nombre implique la mise en relation de l’ordination et de la cardination, laquelle implique la maîtrise sousjacente de la transitivité, c’est exactement le contraire que livre l’étude expérimentale en mettant en évidence des décalages systématiques (c.-à-d. présents chez tous les sujets à un seuil de confiance donné). La conservation du nombre est acquise (seuil de confiance = 95% des sujets) avant la mise en relation de l’ordination et de la cardination, ellemême acquise (même seuil) avant la réussite aux items de transitivité qui survient en dernier ; ainsi, la thématisation des structures sous-jacentes à un concept donné serait postérieure, du point de vue de la prise de conscience, au concept lui-même. Autrement dit, chercher à inférer les mécanismes d’apprentissage, à partir de l’ordre des acquisitions, peut découvrir une complexité insoupçonnée car le périphérique d’expression de la performance (essentiellement le langage, via la prise de conscience) peut être influencé, dans des proportions variables, par des facteurs procéduraux, déclaratifs, réflexifs, etc. et des composantes non équilibrées des divers types d’abstraction décrits par Piaget. Ces remarques sont banales, l’absence de résultat expérimental probant, dont elles rendent compte, ne ruine toutefois pas l’idée de construction des connaissances, car de nombreuses contraintes formelles demeurent dans l’organisation des acquisitions, notamment toutes celles qui sont liées aux très nombreux décalages systématiques (collectifs) et à l’indiscutable existence d’un gradient de complexité. Il faut, néan- 299 moins, se résoudre à admettre une absence de transparence de la performance, le niveau d’analyse piagétien est trop éloigné du traitement de l’information pour que celui-ci puisse lui apporter une caution, ce qui a conduit d’ailleurs beaucoup d’auteurs à une forme de découragement (voir les analyses de Bideaud, 1988). L’enseignement principal que nous tirons de ces études est que le développement opératoire montre une singulière combinaison entre la souplesse des parcours individuels, de l’idiosyncrasie développementale (forte variabilité intra et interindividuelle, changements intra-individuels dominés par la logique de la régression vers la moyenne, pas de typologies de sujets repérables par des facteurs de groupe dans les épreuves, etc.) et la robustesse des indicateurs de complexité, attestée par la régularité des progrès et les nombreux décalages systématiques. Il semble que chaque concept possède une profondeur logique liée à un degré de complexité calculatoire contraignant, qui ne prouve, certes pas, la validité de la théorie de l’opération, mais cautionne l’approche structuraliste, étant entendu que son champ d’application doit être restreint au travail de la prise de conscience et de la conceptualisation et que personne ne songe plus à contester le fait que l’enfant sache une infinité de choses sur le monde en allant lire, de façon automatique et non réfléchie, dans ses gènes, dans son langage, dans les objets et dans les systèmes d’habitudes culturelles. Nous ne nierons pas, par exemple, que l’enfant possède une compétence innée pour apprendre à parler, (nous n’en savons rien, peu importe) mais nous pouvons nier beaucoup plus facilement qu’il dispose d’une telle compétence lorsqu’il comprend la grammaire, c’est-à-dire lorsqu’il réorganise sa connaissance de la langue sur un plan conscient et réfléchi. Après ce rappel de quelques faits expérimentaux et l’évidence de l’impossibilité de leur donner un caractère décisif, nous aimerions engager la discussion à propos du constructivisme endogène de la connaissance, objet de vives critiques et pour lequel aucun modèle satisfaisant n’a pu encore être proposé. Nous essayerons de mettre ses faiblesses en lumière, de montrer comment une partie de la psychologie, sous prétexte de les dépasser, s’est en fait attachée à de nouveaux objets d’étude relativement insignifiants au regard du projet de Piaget. Il ne 300 s’agit pas de sombrer, pour la défense de la théorie opératoire dans un constructivisme béat, démenti par de nombreux travaux expérimentaux (p. ex. sur les nourrissons), mais de ne pas céder, à l’inverse, et sous prétexte de la mise en évidence d’une importante connaissance innée du monde, à la tentation anti-mentaliste. Pour expliquer que la raison est capable de créer elle-même ses propres outils analytiques, Piaget opte, sans l’ombre d’une hésitation, dès le début de son travail et dans une ère où l’essentiel de la psychologie mondiale y était hostile, pour une conception mentaliste de l’intelligence. Le mental accède à l’explication et transcende les simples constats de légalité, parce que, ainsi que Piaget l’a montré dans son texte célèbre à propos du parallélisme (Piaget, 1974), l’implication logique est la catégorie mentale qui se substitue à la nécessité physique et qui ouvre à la pensée déductive anticipatrice impensable par le monde physique condamné à la réclusion perpétuelle dans le présent. Le mental permet la fabrication des théories, la causalité (Piaget et coll. 1970, 1971) et ouvre des perspectives de composition inconcevables dans le monde matériel où la carpe et le lapin ne se marient pas. Il subsiste toujours de fortes tendances anti-mentalistes dans la philosophie de l’esprit contemporaine, des opposants qui sont directement passés du behaviorisme aux neurosciences et attendent que les scalpels et les caméras les plus sophistiqués nous fassent voir dans le cerveau des fantasmes, des croyances et des concepts, des utilitaristes n’acceptant le mental que par commodité de notation des phénomènes ou des « restrictivistes » au nombre desquels nous mettrions volontiers Fodor (cf. p. ex. Fodor, 1985) en raison de sa position difficile pseudo-mentaliste qui refuse l’émergence de la nouveauté. Nous n’allons pas entrer dans une discussion de ces positions, nous sommes psychologue parce que nous croyons au mental, comme les mathématiciens croient aux nombres, bien qu’ils ne s’attendent pas à les voir apparaître dans l’oculaire de microscopes spéciaux destinés à scruter les troupeaux de moutons ou les sacs de billes. Le mental permet une considérable économie de notation et de calcul (cf. p. ex. l’introduction de Mehler et Dupoux, 1990), c’est un ensemble de structures relationnelles (Whiten, 1994), comme la gravitation. L’erreur de catégorie la plus commune consiste à le traiter comme une substance et à le comparer à la matière pour découvrir des antinomies. Le talon d’Achille de la théorie opératoire Piaget est un kantien et, tout comme Chomsky que l’on présente souvent comme son principal adversaire [voire son pourfendeur dans l’esprit de ceux qui souhaiteraient que le colloque de Royaumont (Piatelli-Palmarini, 1979) soit aussi fatal à Piaget que la critique du Verbal behavior (Chomsky, 1959) l’avait été à Skinner], il est un théoricien de la compétence. Seulement, la sensibilité des deux auteurs à l’interaction entre le sujet et le monde est très différente. Les chomskiens pensent que les formes de la connaissance sont données a priori et subissent une simple paramétrisation, qui converge vers des formes correctes, même sous une exposition minimale aux stimulations nécessaires et sans effets notables des sessions d’acquisition et de leur ordre (théorie du stimulus appauvri). Lorsque les chomskiens, sur la base d’arguments logiques, psychologiques et philosophiques bien connus, soutiennent qu’une théorie de l’apprentissage n’est pas seulement inexistante mais qu’elle n’est même pas concevable, cela signifie que la paramétrisation des modules de la grammaire universelle n’est pas un apprentissage. Il s’agit d’une induction d’un caractère restrictif, puisqu’il n’est pas question de découvrir ou de construire la fonction à appliquer sur les données de l’expérience linguistique mais seulement de choisir, parmi un ensemble de fonctions pré-programmées, celle qui est compatible avec le monde et va se trouver instanciée par l’expérience. L’apprentissage, s’il était concevable, ne commencerait donc, dans cette perspective, qu’à partir du moment où le sujet élaborerait lui-même de toutes pièces la fonction ou le concept nécessaires à la catégorisation de l’expérience. C’est cette élaboration qui est jugée impossible par Chomsky. Autrement dit, encore, il considère qu’une chose ne peut être apprise que si elle est apprenable, c’est-à-dire si, dans l’ensemble des concepts du sujet, il en est un qui pourra séparer les cas de figure fournis par l’expérience du monde. Pour prendre une comparaison biologique (légitime dans une perspective dont les derniers développements font de la grammaire universelle, à l’aide de modules binaires allélomorphes, un véritable ADN du langage) on peut poser l’image d’un métabolisme intellectuel qui serait réceptif à l’habituation et à divers conditionnements (de type mithridatisation), mais déterminé par un répertoire de concepts-enzymes gouverné par le code génétique. L’analogie avec la vision illustre aussi cette idée puisque la programmation des pigments colorés, qui est calée sur des longueurs d’onde précises et particulières à chaque espèce, rend l’œil incapable d’apprendre à voir autre chose que ce pourquoi il est fait, par exemple l’infrarouge ou l’ultra-violet pour ce qui nous concerne. Cette position conduit à une conception néo-cartésienne d’un mental muni de prédicats innés dont le sujet ne peut accéder qu’aux conséquences déductibles, supports de la fixation des croyances (cf. Fodor, 1983, pour une analogie avec la confirmation dans les sciences). Il apparaît nettement que, pour Chomsky, c’est l’information qui doit se substituer à l’apprentissage. En effet, l’information est ce qui réduit l’incertitude de son destinataire (de moitié s’il s’agit d’un bit). Si l’on vous dit qu’une carte prise au hasard dans un jeu de belote est rouge, votre probabilité de la deviner passe de 1/32 à 1/16, mais cette réduction d’incertitude n’a de sens que si vous avez déjà à l’esprit l’inventaire des mondes possibles (si vous savez, entre autres, ce qu’est un jeu de cartes), étant entendu que si ces mondes sont possibles, c’est qu’ils sont concevables. Piaget pense naturellement aussi que l’assimilation est impossible sans structures préexistantes (schèmes, concepts, etc.), mais il ne peut jamais se détourner de la tension entre le connu et l’inconnu, l’ancien et le nouveau ; pour lui le second est irréductible au premier et leurs contenus sont en un certain sens incommensurables. Pour lui, penser est synonyme d’apprendre, c’est une fonction biologique qui gouverne la modification du comportement en fonction du milieu et non un simple épiphénomène qui accompagne l’action comme la douleur accompagne la piqûre. Il existe une authentique création conceptuelle ne devant rien au l’apparition des concepts est aussi spectaculairement novatrice que celle des espèces. La tentative la plus hardie qu’il a conduite en ce domaine, qui est en même temps la plus empiriquement exposée aujourd’hui a été, après avoir reconnu que les formes kantiennes de la sensibilité (espace, temps, objet, causalité) étaient effectivement nécessaires en amont de la connaissance du monde physique, de tenter la démonstration de leur propre construction (Piaget, 1936 ; 1937). Le sujet chomskien hérite (et nous ne contestons pas que Piaget a sans doute beaucoup sous- 301 estimé l’héritage) alors que le sujet piagétien s’enrichit. Ne sentant pas la nécessité de la compétition quand la coopération est possible, nous nous attacherons à ne pas voir d’antagonisme entre l’héritage et l’enrichissement, au contraire, loin que leur somme soit une constante, ce sont plutôt deux termes proportionnels et corrélés. La création paraît indiscutable dans la phylogenèse et la sociogenèse, et il est extrêmement difficile de soutenir que les gènes des premiers eucaryotes étaient déjà gros de la vis sans fin, des équations de Maxwell ou de la hiérarchie des grammaires (voir Putnam, 1988, chapitre 1, pour quelques arguments dans ce sens). La psychogenèse n’offre pas la même évidence, les sujets montrent en général une aptitude beaucoup plus grande à comprendre qu’à inventer, ce qui permet de gagner un temps considérable: l’éducation est une forme d’hérédité de l’acquis dans notre espèce. Mais, qui peut prouver qu’il y a ou qu’il n’y a pas dans la compréhension le même effort intime d’assimilation que dans l’invention? (Abstraction faite de la dispense qui est concédée de tâtonner et d’affronter le poids des idées fausses antérieures dans un monde spécialement adapté à sa réinvention, c’est-à-dire le monde redessiné et formaté par les pédagogues ?) Le point faible de la théorie opératoire semble localisable dans l’argumentation développée autour du passage à la nouveauté. Piaget n’a pas réussi à trouver un système pour exposer ses intuitions dans ce domaine et son modèle le plus achevé, l’équilibration (Piaget, 1975) souffre de certaines limitations : recours excessif au verbalisme et à une sorte de pensée dialectique (cf. les volumes précédents et préparatoires XXXI et XXXII des EEG), modèle d’équilibre mécanique pas très convaincant et assez éloigné des catégories mentales, recours à une force fondamentale de tension vers l’équilibre mal identifiable, à coloration parfois finaliste et dont la réalité psychologique est loin d’être évidente puisque nombre d’organisations mentales individuelles ou collectives se stabilisent et résistent fort loin de l’équilibre. Ce dernier étant le principe explicatif, il est très gênant qu’il ne soit pas atteint car il est le moteur des boucles de régulation et non pas un simple paramétrage initial de la situation ; il joue le rôle de cause finale cybernétique (contrairement. par exemple, à l’égalité des chances qui doit être assurée en amont mais 302 non observée nécessairement en aval d’un processus, l’équilibre doit être un état terminal). De plus, la recherche de l’équilibre n’explique pas la création de la nouveauté, à moins de supposer qu’il recèle un germe de mouvement perpétuel ou de génération spontanée. C’est une illusion de la pensée dialectique et de la transposition mentale du couple action-réaction que de croire que l’exposition d’une chose à son contraire est créatrice d’énergie et d’information (nous y reviendrons). En un mot, l’équilibration rend mal compte de l’invention conceptuelle et, même dans ses formes sophistiquées (structures dissipatives par exemple), elle n’a convaincu que ceux qui l’étaient déjà et n’est pas venue à bout du paradoxe (pourtant simpliste) de l’apprentissage : comment peut-on tirer une structure n d’une structure n-1 moins puissante? L’opposition n vs n+1 est de même type que les oppositions liées au réductionnisme et au refus de l’émergence (négation du mental issu du physiologique, de la causalité issue de la légalité, de la nécessité issue de l’expérience, etc.). La théorie de l’équilibration n’a pas réglé ce paradoxe et elle est sortie affaiblie du colloque de Royaumont (Piatelli-Palmarini, 1979) où, pourtant, la dimension calculatoire était quasiment absente et où elle a été confrontée à des arguments psychologiques discutables et à des arguments philosophiques parfois grossiers. Fodor prétend démontrer, par exemple, que l’induction est impossible parce qu’à des séries infinies d’inputs et d’outputs correspondent une infinité de fonctions (ou d’automates). Il répond par la négative à la question suivante : est-il possible de trouver un critère permettant de retenir une fonction parmi cet ensemble infini ? On serait pourtant tenté de répondre en invoquant le critère de la simplicité : il suffit d’ordonner les fonctions selon un gradient de complexité (en référence par exemple à la complexité calculatoire, cf. Delahaye, 1994) et de retenir la première qui est compatible avec les données. Mais, en fait, il semblerait que les sujets, dans les tâches cognitives, choisissent tous des fonctions complexes identiques, et sans que rien de leur exposition minimale au monde ne permette de prédire ce choix. Chomsky (Piatelli-Palmarini, op. cit.) expose des exemples dont l’un est relatif à l’acquisition de la tournure interrogative en anglais. De la nécessité dans les phrases complexes où le sujet a un complément (une relative par exemple The man who is tall will leave [l’homme qui est grand va partir] qui mène à Will the man who is tall leave ? et non à Is the man who tall will leave ?) de procéder à une analyse qui semble requérir le concept de syntagme, alors que celui-ci est inutile dans des occurrences plus simples qui conduiraient un Martien ou un automate empiristes à adopter une stratégie élémentaire (The man is tall ; The man will leave mènent à Is the man tall ? ; Will the man leave ? avec une règle simple — mais fausse — qui consiste à placer en tête de phrase le premier verbe rencontré), et de la supposition très hardie que les jeunes locuteurs ne se trompent pas, Chomsky en vient à conclure que la fonction incluant le concept complexe de syntagme est inapprise (donc inapprenable) et par conséquent innée. On doit relever au moins une approximation et un paralogisme dans cette démonstration. D’une part, il n’y a aucun moyen de prouver que l’enfant n’apprend pas à former les interrogatives (implicitement ou explicitement), et beaucoup de psycholinguistes pensent même le contraire puisque l’enfant recourt en général à une prosodie apprise (cf. les difficultés considérables des sourds) avant de recourir à la syntaxe pour poser des questions et il semble acquérir en premier des fonctions sémantiques et pragmatiques (parmi de très nombreuses références, cf. p. ex. Haliday, 1976) et, d’autre part, la transition qui va de apparemment non-appris à inapprenable est évidemment très abusive. L’histoire des sciences possède un Panthéon de grands esprits qui ont démontré qu’on ne pourrait jamais voler, qu’aucun objet ne quitterait jamais l’attraction terrestre, qu’un perceptron multicouche était définitivement incapable d’apprendre quoi que ce soit, etc. La perplexité des psychologues face à l’apprentissage [encore aggravée par des décennies d’indigence de l’intelligence artificielle qui, prudemment préfère plutôt se demander : « Qu’est-ce que savoir? » au lieu de « Qu’est-ce qu’apprendre ? » (Haugeland, 1985)] a conduit beaucoup d’entre eux à s’en désintéresser, c’est-à-dire à n’étudier que les conditions périphériques plus ou moins facilitatrices, soit à se réfugier dans la réponse facile de l’innéité, soit encore à développer une métaphore darwinienne qui les rapproche plus de Skinner que de Piaget. Nous voulons parler dans ce dernier cas de l’appel à la variabilité comme moteur de l’adaptation. Entre le sujet générateur de diversité et le rat que l’on introduit dans la boîte de Skinner, nous attribuons même sans hésiter la palme de l’intelligence à ce dernier. Avec cette conception, la vie mentale se trouve dépossédée de la signification, elle joue aux dés. La psychologie différentielle y trouve toutefois un moyen de rafraîchir ses problématiques (cf. p. ex. le colloque de l’APSLF de 1993, ou bien les reprises, plus ou moins grossières, du thème de l’émergence de l’ordre par sélection dans le désordre et la promotion de la variabilité au rang de facteur adaptatif). L’équilibration s’est révélée, de notre point de vue, le talon d’Achille de l’ensemble de la théorie opératoire et a favorisé la contamination de ses parties saines et l’apparition de toutes les dérives de la psychologie piagétienne qui se sont épanouies à partir des années soixante. Même si une part du courant relatif au traitement de l’information et à l’analyse procédurale n’était pas hostile (courant mené à Genève par Inhelder), la plupart des auteurs ont rapidement abandonné les stades structuraux et l’analyse conceptuelle. La psychologie différentielle, toujours aussi fascinée par le fait que « tous les chats n’ont pas le même nombre de poils » (Thom, 1982), a également souvent perdu de vue l’analyse structurale pour l’étude des variations, sans présenter clairement son projet d’établissement d’une continuité entre la science des facteurs et celle des concepts ; quant au courant sociocognitiviste et à l’idéologie communautaire et antiindividualiste sous-jacente, il a négligé le fond du problème au bénéfice de l’étude (variationniste encore une fois) de quelques conditions périphériques de l’apprentissage. Il est clair que, lorsqu’on localise, dans les rapports à la troisième personne, l’origine des régulations cognitives de la première personne, c’est un peu comme si on expliquait le génie de Bobby Fischer par sa passion pour les échecs ou par sa rage de vaincre. On peut faire des remarques similaires à propos des travaux néoassociationnistes (de la recherche des simples effets d’association — p. ex. interférence — aux modèles connexionnistes plus complexes) qui reprennent l’idée de Hume, voyant dans l’association l’équivalent, pour la psychologie, de la gravitation pour la physique, d’une possible réduction physicaliste du mental, ou, à propos d’un certain fonctionnalisme étroit: expliquer la formation des concepts par l’inhibition des réponses, par exemple, c’est comme expliquer qu’on est allé 303 à New-York parce qu’on a pris l’avion à Roissy. Piaget, et c’est dommage, a refusé de composer, même temporairement, et ses analyses ont invariablement poursuivi le même but de solidification en un seul tout organique de l’ensemble de sa pensée, alors qu’il aurait sans doute été de meilleure stratégie de consentir des efforts de cloisonnement et de subdivision en sous-théories indépendantes. En effet, en voulant indissolublement lier la question de la structure à celle de la genèse, il a voulu avoir raison trop tôt et les faiblesses (provisoires) de l’approche génétique ont, par contraposition (si S → G alors ~ G → ~ S), fragilisé, quand ce n’est pas édulcoré ou éliminé, des apports conceptuels d’une richesse sans précédent, et un si rare équilibre entre la fécondité expérimentale et l’élégance de la formalisation. Le dossier du constructivisme, loin d’être refermé, est pour nous à peine entrouvert. Nous allons développer deux idées relatives d’une part à l’assimilation des connaissances (la théorie de l’apprentissage) et à leur composition (assimilation réciproque ou chimérisation). La théorie de l’apprentissage La théorie de l’équilibration, et personne ne songerait à la contester sur ce point général, décrit la tension vers la nouveauté comme un produit de l’inadéquation entre les fonctions projetées sur le monde (les coordinations du sujet) et le constat de l’insuffisance de leur pouvoir catégorisateur de l’expérience. Le sujet est capable, dans une certaine mesure, de comprendre qu’il doit mieux régler sa conduite ; considérons que cela revient à tenter de former de nouveaux concepts. Nous avons bien conscience que 1) faire comme s’il existait des objets basiques de la cognition (sortes d’enzymes pour reprendre la comparaison développée supra) et 2) les nommer concepts, ne résout aucun des problèmes philosophiques attachés à cette vision des choses (cf. p. ex. Fodor, 1994) mais, pour la commodité et la robustesse du raisonnement, assimiler un concept à une fonction présente le double avantage de retenir l’essentiel de son contenu sémantique (avoir le concept de doublezon permet de partitionner dans le monde les doublezons et les non-doublezons ; avoir le concept d’objet permanent permet d’identifier les situations dans lesquelles, en dépit de sa disparition du champ visuel, un objet est connu comme continuant 304 d’exister matériellement, et de les distinguer de celles où ce n’est pas le cas : combustion, explosion, etc.) et de considérer l’apprentissage sous l’angle calculatoire. La théorie mathématique de l’apprentissage (Boucheron, 1992), qui connaît, depuis le milieu des années quatre vingt, grâce aux algorithmes de rétropropagation de l’erreur dans les réseaux de neurones formels à couches cachées, des moyens de simulation ayant la souplesse et la puissance requises, recourt à une position des problèmes de ce type. Un apprentissage est la formation d’un système d’associations entre des inputs (x) et des outputs (y), ces associations étant réalisées par une fonction f assimilée à un concept séparateur des données de l’expérience. (Nous ferons ici une impasse totale sur les aspects probabilistes et le problème de la convergence.) Cette assimilation est particulièrement transparente dans le cas simple où le domaine de y se réduit aux valeurs 0 et 1, la fonction f établissant alors une partition dans l’ensemble des vecteurs d’entrée. La théorie de la séparabilité linéaire a été enrichie par Minsky et Papert (1969) qui ont montré qu’un perceptron convergeait vers une fonction f si, et seulement si, elle était linéaire. Avec les fonctions plus complexes, il est nécessaire d’utiliser un perceptron à couches cachées. Lorsque la fonction nécessaire à la catégorisation des données de l’expérience est incarnée dans une structure de réseau particulière, on dit alors que le monde des exemples est apprenable au moyen de cette fonction qui est assimilée à un concept séparateur (pour quelques développements et exemples, cf. Bradmetz et Schneider, 1996). Un concept repose donc également sur une métaphore spatiale dans la théorie de l’apprentissage, très intuitive dans le cas de la linéarité puisqu’il est assimilé à une droite, un plan ou un hyper-plan. La théorie de l’apprentissage a établi quelques résultats importants, dont les conditions d’une traduction psychologique, doivent être examinées, ce qui — et cela demeure pour nous une énigme — n’est pas effleuré dans les discussions courantes des psychologues sur le constructivisme. Le plus important de ces résultats (Gold, 1965) montre qu’il existe une méthode d’inférence inductive, dite d’identification à la limite, qui permet d’identifier, à coup sûr, une fonction appartenant à la famille des fonctions primitives récursives (c.-à-d. à l’immense majorité des fonctions). L’algo- rythme, programmable, est en mesure d’énumérer, selon un ordre de complexité donné relatif à la longueur des programmes qui les définissent, l’ensemble des fonctions primitives récursives et de s’arrêter avec certitude sur la bonne qui est recherchée et qui ajuste les données de l’expérience (voir Delahaye, 1993). Autrement dit, un ensemble très grand d’entrées peut être associé à un ensemble très grand de sorties par une fonction dont la découverte résulte de l’application d’une procédure automatique (un algorithme) infaillible. Cet algorithme propose, à chaque pas, si la fonction f a échoué, une fonction n+1 de degré immédiatement supérieur. Une approximation de cette méthode peut être réalisée avec un réseau de neurones, dont on complexifie progressivement la structure (cf. la procédure cascade-corrélation de Fahlman et Lebiere, 1990). C’est clairement un algorithme de ce type qui est évoqué par les niveaux successifs de l’équilibration et il faut considérer que, contrairement à toutes les affirmations nativistes à propos de l’inexistence d’un GDM (general development mechanism : mécanisme général de développement), les conditions de possibilité logiques d’un apprentissage par construction conceptuelle sont réunies par l’algorithme énumératif de Gold, qui complexifie les fonctions successives qu’il soumet à l’expérience, donnant ainsi une réalisation du passage des coordinations de niveau n au niveau n+1 dans le modèle de l’équilibration de Piaget. Ce que Piaget invoque comme seul fonctionnement inné (capacité d’accommodation des schèmes) pourrait être identifié à un algorithme général de ce type, supervisé par l’expérience, évidemment plus productif que la sélection a posteriori des réponses aléatoires (d’ailleurs, nous pensons que ce n’est pas du tout par hasard ni par goût de la diversité que les rats de Skinner finissent par appuyer sur la bonne pédale au lieu, par exemple, de se mettre à danser le tango ou à écrire une introduction à la Critique de la raison pure). Ce n’est pas parce que la rétropropagation de l’erreur ne semble pas avoir d’équivalent biologique que le type de fonction qu’elle assure, n’est pas représenté dans l’esprit ; sans ailes, les hélicoptères volent quand même et les bateaux avancent sans nageoires. De la même façon, on peut concevoir une incarnation mentale (si l’on nous permet cette expression) de l’induction à la limite. Il est bien clair que la théorie de l’apprentissage n’a encore rendu que de négligeables services à la pensée scientifique (dans quelle mesure faut-il conserver, construire, rejeter une théorie ?) et à l’intelligence artificielle, et quasiment aucun à la psychologie du développement et qu’il est sans doute peu réaliste d’en attendre des miracles, en raison à la fois de la simplicité et de la complexité de ses modèles : l’induction humaine est-elle réductible à l’induction mathématique et, si oui, l’esprit a t-il besoin de recourir à des catégories de fonctions très complexes ou bien, de la même façon qu’il n’a l’intuition que d’un espace simple à trois dimensions, n’utilise-t-il que des fonctions rudimentaires ? Si nous faisons l’hypothèse que l’esprit utilise, en guise de concepts, des fonctions discriminantes linéaires, il existe une autre façon simple de considérer le problème en le liant uniquement à l’accroissement de l’espace mental. Lorsqu’un perceptron échoue à séparer linéairement deux ensembles de vecteurs, il y a deux solutions possibles pour parvenir à l’apprentissage, soit améliorer la puissance du réseau, en introduisant progressivement des neurones cachés (Fahlman, 1988 ; Fahlman et Lebiere, 1990), ce qui revient à adopter une méthode proche de celle de Gold, soit augmenter la dimension de l’espace des exemples, c’est-à-dire la longueur des vecteurs d’entrée, en adjoignant un trait distinctif supplémentaire aux exemples. Dans ce dernier cas, on conserve la même fonction de séparation linéaire et aucun progrès conceptuel n’est donc requis, mais on applique l’ancien concept à des objets plus lourds et mieux différenciés. L’apprentissage est donc rendu possible uniquement par un accroissement de l’espace mental, à la façon dont, dans les systèmes de production, certains chaînages inférentiels ne sont, eux aussi, possibles que sous la condition d’un espace de travail minimal. Nous ne doutons pas que la psychologie cognitive développementale à venir saura caractériser les concepts en fonction de leur profondeur logique et sur la base de dimensions de complexité pertinentes, réalisant ainsi une partie du projet piagétien par le biais de l’équivalent d’une classification mendéleïevienne des objets mentaux. La profondeur logique donne également de précieuses indications sur le temps de calcul et par là sur la raison des étapes de la psychogenèse. La complexité d’un concept est une manière de carbone 14 pour les 305 psychologues. Si l’univers calcule au rythme du PC que nous utilisons et qu’on y trouve un jour un objet dont le temps de calcul corresponde à celui de la résolution d’une tour de Hanoï à 70 disques, on saura que cet objet a 15 GA et que sa naissance est contemporaine du big-bang. La chimérisation La quasi-totalité des théories psychologiques, et notamment le courant chomskien, sont à la fois opposées à la génération spontanée des concepts (ce que nous leur accordons) et en même temps attachées à la parthénogenèse. Il en résulte évidemment que l’apparition du nouveau est inexplicable dans ce contexte contradictoire sans concevoir d’échappatoires. Les deux plus courantes sont l’appel au hasard et la dialectique. Cette position conduit à l’argument classique de l’impossibilité d’extraire n+1 de n. A six ans, les enfants pensent que les corps ne flottent pas parce qu’ils sont lourds, à douze ans, ils pensent qu’ils coulent parce qu’ils sont denses, mais Fodor nous dirait vraisemblablement qu’ils n’ont rien appris. Chomsky est le Parménide de l’apprentissage et Fodor est son Zénon zélé. Le paradoxe (n, n+1) résulte en fait d’une mauvaise position du problème. Comme nous allons essayer de le montrer, n+1 ne vient pas seulement de n mais aussi de o, p, q, etc. Nous pensons que le constructivisme piagétien est, pour sa part, très au-dessus de cette réplication de l’identique et au-dessus même de l’hybridation de la reproduction sexuée. Les constructions conceptuelles sont des chimères qui intègrent des éléments divers en un seul tout organique et sans faire perdre à chacun son intégrité. La chimérisation est le mode de composition universel des objets techniques, c’est aussi le mode d’assemblage qui correspond le mieux à la liaison par les valences. Nous n’en donnons ici qu’une approche métaphorique, sans souci de formalisation, mais avec le projet explicite de démarquer le constructivisme de la déductivité parthénogénétique ou de l’hybridation aléatoire. Le lecteur peut se rapporter à Margulis et Sagan (1989) pour un exposé général de la biologie de la symbiose et de l’universalité de ses mécanismes : « … la symbiose est l’une des expressions d’un phénomène universel, le principe qui consiste à mélanger et à réarranger. Deux organismes, deux systèmes ou deux objets bien développés et adaptés se com- 306 binent, réagissent, se redéveloppent, se redéfinissent, se réadaptent — et quelque chose de nouveau émerge. Les inventions humaines exploitent ce principe de mélange/réarrangement en permanence. Par exemple, la montre-bracelet réalise la fusion de l’horloge et du bracelet, le tank celle du camion et du canon, le synthétiseur celle de l’ordinateur et du piano […]. La recombinaison, qu’elle s’exprime sous la forme d’une infection virale, de l’union d’une algue ou d’un champi– gnon pour constituer un lichen, du cannibalisme chez les amibes, du mariage d’un homme et d’une femme ou de la fusion d’un écran vidéo avec un enregistreur de cassette pour faire un magnétoscope, est un des principes qui animent toute la vie sur terre » (op.cit. p. 180). Les auteurs déplorent que la reproduction (sexualité mitotique minoritaire et tardive dans la vie) et non la recombinaison (sexualité méiotique) retienne l’attention presque exclusive des biologistes et des évolutionnistes. Symbiose ayant un sens biologique spécifique, nous utiliserons le terme de chimérisation pour désigner le processus général de recombinaison et de création de structures. L’ensemble des travaux de Piaget est un catalogue de chimères qui ne doivent rien au hasard ou à la dialectique, elles ne naissent pas de la rencontre stérile du positif et du négatif mais de l’alliance du positif et du positif. L’appel au hasard dans la formation du psychisme aussi bien que dans l’organisation de la vie est pour Piaget le degré zéro de l’explication. Nous ne pouvons que regretter l’immixtion de la doctrine orthodoxe néo-darwinienne (Monod, 1970) dans la psychologie et l’assimilation abusive entre évolution et sélection naturelle qui conduit, comme c’est souvent le cas chez les commentateurs du behaviorisme (qui n’est autre qu’une théorie de la sélection naturelle des réponses), à une conception atrophiée de l’activité psychologique, conception éloignée même parfois de la pensée skinnerienne, profonde et nuancée. La sélection naturelle est incontestable, encore que nous sachions peu de choses de son caractère éventuellement « neutraliste », l’apprentissage est lui aussi, autant dans les réseaux de neurones artificiels que chez les enfants, supervisé par le monde. Mais, évidemment, la sélection n’est que l’aval de l’évolution, elle ne dit rien de l’amont et l’essentiel de l’activité psychologique n’est pas la sanction reçue par la réponse, mais la formation de la réponse et les théories de la mutation et autres générateurs de diversité dépouillent les feedbacks de toute signification, leur rétropropagation se limitant à modifier mécaniquement la probabilité d’occurrence des réponses déjà formées mais pas à en créer de nouvelles. Tout comme il nous faudrait admettre que l’œil se serait formé par hasard au cours de la phylogenèse (il a vu de la lumière et il est entré…), il faudrait concevoir que les structures mentales procéderaient de la discipline aveugle que le monde imposerait au bruit des neurones. Nous préférons, avec Piaget, (et beaucoup de biologistes en dehors de leur laboratoire qui refusent d’identifier évolution et sélection) croire en un Comportement moteur de l’évolution (Piaget, 1976) — ce qui est déjà indirectement très vrai puisque la modification du milieu par l’espèce modifie les conditions de la sélection — et en un guidage endogène et sensé de la complexification mentale lié au fait que les états mentaux symboliques ont une autonomie et un pouvoir causal les uns sur les autres. Au-dessus du hasard, on trouve la dialectique, qui essaie de nous montrer qu’il est possible de s’élever en tirant sur ses propres bottes. L’inconvénient majeur de la pensée dialectique, nous l’avons évoqué plus haut, est de considérer que la confrontation d’une proposition à sa négation serait l’équivalent d’une sorte de fusion froide redonnant souffle et énergie à la pensée créatrice (les développements les plus paroxystiques de cette idée en psychologie du développement sont sans doute le fait de Pascual Leone, 1987). A-t-il suffi à Képler de nier le cercle (inhibition de la réponse…) pour concevoir les orbites elliptiques ? N’y a-t-il que de la négation ou du hasard lorsqu’on finit par découvrir, après des années, que rendre les cartes bancaires avant les billets dans les distributeurs automatiques, et non pas le contraire, met fin aux oublis et aux queues devant les banques le lundi matin ? Et l’on pourrait multiplier les exemples en éprouvant toujours la même impossibilité à concevoir que le concept n’est pas une invention et qu’il était déjà contenu dans l’état antérieur et que c’est un simple procédé mécanique qui l’en a fait surgir (passage de la numérotation des lignes à l’étiquetage en BASIC, qui lève une contrainte liée à une interférence entre langage et métalangage ; découverte du fait qu’une pièce de 10 F, provisoirement gagée dans un caddy, met fin, sans qu’il en coûte un sou, à la pagaille qui régnait autrefois sur les parkings de supermarché, malgré les exhortations au civisme ; remplacement des carrefours par des ronds-points grâce à l’inversion de la priorité ; etc.). On connaît l’importance de la négation chez Piaget, à la fois dans les modèles de structures (groupements, groupes et réseaux combinatoires) et dans les aspects fonctionnels, notamment inversion, réciprocité, compensation et sensibilité à la contradiction. Il n’est pas exagéré de dire qu’il est souvent sensible aux sirènes de la pensée dialectique, avec l’idée récurrente de construire des tertium qui résolvent des alternatives dont les deux branches sont dans un rapport de négation. Et pourtant, l’examen des objets mentaux qui jalonnent le développement révèle des structures qui doivent beaucoup plus à la chimérisation qu’à un supposé dépassement dialectique. Prenons un exemple d’autant plus célèbre qu’il a été l’objet de nombreuses tentatives réductionnistes : le nombre. Vers 3-4 ans, avec la pensée par couple (cf. les analyses fonctionnelles d’Orsini-Bouichou, 1982), l’ordre et l’équivalence procèdent à une sorte d’arrimage réciproque et les deux éléments d’un couple sont considérés à la fois comme identiques et substituables sous certains aspects et différents sous d’autres aspects car ils doivent être séquencés dans l’action. Grize (1968) voit, dans le couple, la première forme matricielle du nombre. Vers 7 ans, la constitution du nombre concret réitère une fusion analogue à celle qu’avait réalisée la formation des couples, en chimérisant cette fois la logique d’emboîtement des classes à celle de succession des relations. Aucun de ces deux termes n’est suffisant, quelles que soient les torsions dialectiques qu’on lui imprime, pour doter le nombre de sa structure propre de groupe, que Grize (1960) montre être une combinaison originale des groupements de classes et de relations qui lève la contrainte de jonction contiguë (terminologie de Wermus, 1973) entre les termes de leurs opérations. Cette chimérisation fournit deux nouveaux concepts majeurs : la correspondance entre l’ordination et la cardination et la transitivité, commune aux emboîtements de classes et aux ordres de succession. Pendant la scolarité élémentaire, l’ensemble du programme d’arithmétique sera consacré à la construction d’une nouvelle chimère, clé de tout le calcul mental et des algorithmes du calcul écrit et qui deviendra ensuite une des clés de la démonstration algébrique par transformation des expressions : la 307 distributivité. Cette chimère a un corps, c’est celui des réels munis de l’addition et de la multiplication et c’est de leur confrontation qu’elle est issue. Une autre chimère notoire naîtra ensuite à l’adolescence: le groupe INRC qui décloisonne une nouvelle fois la logique des classes et celle des relations en établissant une mise en correspondance entre leurs opérations inverses : la négation et la réciprocité. Piaget et Inhelder (1951) et Inhelder et Piaget (1955) ont montré, dans des exemples nombreux et classiques, comment la lecture de la plupart des concepts de la physique dans l’expérience était impossible sans ce groupe de transformation des propositions qui transcende les abstractions de premier niveau sur les causes et les effets (cosériations et mises en correspondance simples). Nous avons de bonnes raisons de croire en cette filiation entre le groupe INRC et le nombre, car les dernières observations réalisées sur les sujets de notre échantillon, âgés de quinze ans et demi, montrent une régression importante des items de pensée formelle sur les épreuves logicomathématiques entre quatre et neuf ans (Bradmetz, sous presse). Dans la formation des représentations de l’espace, nous pouvons observer les mêmes phénomènes d’une véritable interfécondité des concepts. L’espace topologique est organisé autour d’une primitive de représentation, le voisinage, dont dérivent les enveloppements, frontières, régions, intériorité, extériorité, etc. Lorsque apparaît la conduite de visée et la compréhension du fait qu’une droite peut se réduire à un point, la prise de perspective (originée au début sur le corps propre) féconde et réorganise la géométrie topologique en enrichissant le contexte de représentation et de composition des voisinages. Simultanément, la conservation des longueurs et des distances (qui résulte d’une prise de conscience de la dissociation mentale possible entre un espace contenant et un espace contenu), réorganise également la représentation topologique et, combinée avec les projections, elle munit la représentation de l’espace de sa structure euclidienne. Durant la scolarité élémentaire, alors que l’arithmétique se consacre à la distributivité, la géométrie poursuit un objectif majeur et dont l’expérience montre que l’acquisition couronne l’ensemble du programme et atteste de la maîtrise de tous les concepts géométriques appris à l’école : la chimérisation du nombre et du continu spatial et la conception de la structure cartésienne de 308 l’espace. Un enfant, entrant au collège, qui a bien compris qu’à tout point de l’espace correspond bijectivement un couple de coordonnées cartésiennes (ou polaires) et qui réussit, par exemple, l’épreuve toute simple qui consiste à déterminer, sur une feuille blanche, la position exacte d’un point-stimulus tracé sur une autre feuille (Piaget, Inhelder et Szeminska, 1948) a achevé une première fusion des nombres et de l’espace, qu’il réélaborera au niveau formel en comprenant la correspondance entre l’algèbre linéaire et les espaces vectoriels (ce qui, entre autres, lui donnera accès à toutes les statistiques, descriptives ou inférentielles, fondées sur la décomposition de la variance) et dont il sondera ensuite éventuellement les frontières conceptuelles en étudiant les résultats contre-intuitifs de Cantor. Nous entendons déjà les objections qui fusent de toute part: ouimais, les problèmes du soixante-dix et du quatre-vingt-dix ? ouimais, la retenue dans le système décimale, la dyscalculie, le problème du zéro, la notation positionnelle des nombres, la représentation des robinets ou des trains, les ambiguïtés du langage naturel, la comptine des nombres, les critères de Gelman, l’application des écolières et l’instabilité des écoliers, le cortex frontal et le lobe pariétal, etc., sans parler de la soustraction-castration ou de la division-dévoration. Sans faire d’antipsychologisme, ce qui serait prendre l’épistémologie génétique à contre-pied, il est quand même possible de s’étonner de la résistance des psychologues à l’abstraction. Il y a des niveaux d’étude, irréductibles et incommensurables, qui ne peuvent, et ne doivent, entretenir que des relations de compatibilité. Le cerveau arithméticien est, certes, un domaine d’étude respectable (Dehaene, 1996), mais, entre la numérosité et le nombre, il y a autant de différence qu’entre le sexe et l’amour, et les blouses blanches se taillent injustement la part du lion en voulant réduire l’étude de la pensée à celle du cerveau. Piaget se cantonne à la description d’un logiciel dont il n’a pas les sources. C’est aussi, bien sûr, la tâche de la psychologie de décrire les programmes, et tous les nœuds que l’évolution, le langage et la culture ont fait à l’intérieur, toute l’intrication de routines anachroniques, mais elle ne peut débattre à propos de l’organigramme qu’au niveau de l’organisation logico-conceptuelle caractéristique du mental (cf. Piaget, 1974). Les structures de Piaget n’expliquent pas plus com- ment résoudre les problèmes que le code de la route n’explique comment conduire les voitures. La recombinaison méiotique (et non mitotique) caractéristique de la vie mentale et des tensions qu’elle y crée (comment penser un objet à la fois comme une fleur et comme une violette ? comment penser un bâtonnet dans une série à la fois plus petit que certains et plus grand que d’autres ?) est particulièrement transparente dans un dernier exemple que nous donnerons pour illustrer la richesse des idées constructivistes, en même temps que la pénétration de Piaget psychologue : le domaine de recherche usuellement identifié comme celui de l’acquisition d’une théorie de l’esprit par l’enfant et qui devra, selon notre point de vue, s’étendre à toute la psychologie de la troisième personne et dépasser les âges auxquels il est actuellement confiné. Toutes les difficultés des petits, dans les items classiques de la littérature, montrent une recombinaison qui ne peut se faire, une cohabitation impossible, entre deux aspects du monde, une logique de confrontation, comme celle qui a précédé la pacifique cohabitation entre nos cellules et nos mitochondries, à l’époque lointaine où ces dernières étaient encore de belliqueuses bactéries. Dans les tâches d’apparence vs réalité (Flavell, Green et Flavell, 1986), l’enfant échoue à penser la dualité, dans les tâches de correspondances (de Loache, 1987), il échoue à penser la similarité, dans celles de séparation de points de vue (Flavell, Everett, Croft et Flavell, 1981), il ne peut penser l’altérité, dans celles où il est interrogé sur les états intentionnels accompagnant le jeu symbolique (p. ex. Lillard, 1993), il échoue à penser la vicariance et, dans les célèbres items de fausse croyance, il ne peut penser la substitution. Dans chacun de ces cas, la coexistence, dans son esprit, de deux formes du monde n’a pas encore été productive d’un concept et de la compréhension d’un phénomène, respectivement ici, en empruntant des comparaisons au théâtre, monde de la représentation par excellence : le trompe-l’œil, la maquette, l’envers du décor, la doublure et le changement de décor (sorte de palimpseste). Piaget a consacré l’essentiel de son œuvre à l’acquisition de théories du monde physique, il ne s’est pas intéressé, dans la même mesure, c’est bien regrettable, à l’acquisition de théories de l’intentionnalité. Et pourtant, il disposait, à notre sens, de tout l’appareil conceptuel dès les années vingt. 1) L’égocentrisme, si mal compris par Vygotski et falsificatoirement et idéologiquement critiqué par ses continuateurs (égocentrisme qui ne signifie ni égoïsme ni refus de contact social mais absence de perspective). Il est curieux (et instructif) que Piaget se soit fait sévèrement reprocher de tenter de le caractériser à partir de la pensée autistique alors que la théorie de l’esprit a redécouvert aujourd’hui dans l’autisme une pathologie paradigmatique de l’intentionnalité et de l’intersubjectivité. 2) Le réalisme, proche de la copy theory actuelle et repris dans nombre de travaux. Le biais réaliste (Mitchell, 1994 ; Mitchell et Taylor, 1997), à l’instar du réalisme piagétien, signifie que la confrontation entre la représentation et la réalité a une tendance spontanée à tourner à l’avantage de cette dernière. 3) Le syncrétisme (dont on ne trouve en général que des définitions assez vagues et étriquées dans les dictionnaires…) qui décrit les interférences entre les traits de représentation de niveaux différents (cf. l’expérience élégante de Mitchell et Taylor, 1997). 4) L’animisme et l’artificialisme qui montrent que la causalité physique ne peut être conçue au début que sur le modèle de la projection du corps et des buts qu’il poursuit dans l’action (les causes finales), composantes explicatives qui sont retrouvées dans la physique spontanée de l’enfant (avec absence de conservation de l’énergie et du mouvement et génération spontanée de force et d’élan dirigés, sur le modèle de l’effort) et dans les premières théories sur l’esprit. Nous ne songeons naturellement pas à nier que des travaux ultérieurs importants (p. ex. Carey, 1986) ont contribué à préciser et enrichir les rapports entre les concepts de l’enfant et ses systèmes explicatifs, mais ils n’ont pas, selon notre point de vue, remis en question l’idée selon laquelle, au-delà de tout traitement de l’information, l’enfant pense et rend le monde intelligible par assimilation métaphorique et ce sont ces efforts d’attribution de signification, leurs approximations conceptuelles successives et leurs contraintes calculatoires, qui demeurent la question nucléaire de la psychologie et le seul espoir qu’elle ait de préserver une unité. Il existe, bien entendu, pour la théorie de l’esprit, comme pour le reste, de nombreuses tentatives réductionnistes et, chez les tenants de l’explication mentaliste, des auteurs qui refusent l’idée d’un apprentissage ou d’une construction, mais seulement la réalisation d’un 309 programme, mais il existe aussi un courant constructiviste (p. ex. Gopnik, 1993) car, si l’enfant, à un moment donné de son développement, n’invente pas l’idée d’un cadre conceptuel commun pour analyser la conduite de la première personne (dont les déterminants, désirs et croyances, sont données de façon immédiate et endogène) et celle de la troisième personne (dont les déterminants doivent être inférés), on ne voit pas comment il pourrait sortir des niveaux inférieurs, où l’autre ne peut être conceptualisé mais seulement connu et prévu par conditionnement pavlovien ou opérant, mais en aucun cas par identification ou simulation (Barresi et Moore, 1996). A lire, d’ailleurs, des auteurs aussi importants que Searle (p. ex. Searle, 1986) on découvre une très piagétienne réhabilitation de la causalité intentionnelle et un ancrage non moins piagétien de l’activité mentale dans l’activité sensori-motrice. Les ordinateurs, dont les paradigmes et l’algoristique dominent maintenant la psychologie cognitive, sont sans aucun doute de piètres simulateurs du mental et ne montrent rien, ni de l’intentionnalité, ni de la tendance spontanée des concepts à se chimériser (une simulation est toujours partielle : dans la simulation nucléaire les ordinateurs n’explosent pas). Le paradigme du traitement de l’information, qu’ils ont répandu et qui a rendu d’immenses services à la psychologie et lui a donné d’exemplaires leçons de modestie, ignore la caractéristique foncière du mental qui est le fond de carte de la chimérisation et de la créativité et que l’on retrouve dans toute la philosophie des sciences cognitives : le holisme de la signification (cf. p. ex. Putnam, 1988). Fodor (1983), qui en traite sous les étiquettes d’isotropie et de quinicité, considère que la tension principale de la psychologie cognitive résulte de la confrontation entre cette caractéristique de base et l’atomisme conceptuel qu’il continue à revendiquer. Nous comprenons, en effet, que son attitude de fermeture à la nouveauté reconnaisse une impasse dans ce qui, pour Piaget, a toujours été un moteur : la possibilité pour les concepts de s’enrichir mutuellement en créant des formes de vie mentale par des combinaisons toujours renouvelées et suscitées par la formidable pression à l’explication, la tension vers la régularité et l’invariance, qui habite l’esprit humain dont la fonction biologique principale est de rendre le monde intelligible, c’est-à-dire maximalement prévisible. 310 REFERENCES BARRESI (1) et MOORE (C.).— (1996). lntentional relations and social understanding. Behavioral and brain sciences, 19, 107-154. BIDEAUD (J.).— (1988) Logique et bricolage chez l’enfant. Lille, Presses universitaires de Lille. BLOOM (B.S.). — (1964). Stability and change in human characteristics. New-York, Wiley. BOUCHERON.— (1992). Théorie de l’apprentissage. Paris, Hermès. BRADMETZ (J.).— (1992 a). Les changements intraindividuels dans le développement de l’intelligence opératoire de l’enfant: analyse d’une étude longitudinale conduite de quatre à neuf ans, Archives de psychologie, 60, 93-122. — (1992 b) Etude longitudinale du développement des opérations logico-mathématiques chez l’enfant de quatre à neuf ans, Cahiers de psychologie cognitive / European bulletin of cognitive psychology, 12, 271- 306. — (1992 c) Les régressions dans le développement de l’intelligence opératoire de l’enfant, Enfance, 46, 405-415. — (1992 d) Etude longitudinale du développement des opérations spatiales chez l’enfant de 4 à 9 ans. Cahiers de psychologie cognitive / European bulletin of cognitive psychology, 12, 605-632. — (1993) Y a-t-il des stades dans le développement de l’intelligence opératoire concrète ?, Archives de psychologie, 61, 95-125. — (1995) Les changements intraindividuels dans le développement intellectuel : approche connexionniste. Archives de psychologie, 63, 3-16. — (1996). The form of the development of intelligence in the child from four to nine, Intelligence, 22, 191-226. — (sous presse). Precursors of formal thinking: A longitudinal study. British Journal of developmental psychology. BRADMETZ (J.) et SCHNEIDER (R.).— (1996). Opposition factice entre requêtes conceptuelle et calculatoire : l’exemple d’une simulation connexionniste de la fausse croyance. Archives de psychologie. 64, 251-273. BRIM (G.) et KAGAN (1.).— (1980). Constancy and change in human development. Cambridge, MA. Harvard Univ. Press. CRONBACH (L.J.).— (1951). Cœfficient alpha and the internai structure of tests, Psychometrika, 16, 297- 334. DEHAENE (S.).— (1996). La bosse des maths. Paris, Odile Jacob. DELAHAYE (J-P.).— (1994). Logique, informatique et paradoxes. Paris, Belin. De LOACHE (J. S.).— (1987). Rapide change in the symbolic functioning of very young children. Science, 238, 1556-1557. DODWELL (P.C.).— (1960). Children ‘s understanding of number and related concepts. Canadian journal of psychology, 14,3. DODWELL (P.C.).— (1962). Relations between the understanding of the logic of classes and cardinal number in children, Canadian Journal of psychology, 16, 152-160. DODWELL (P.C.).— (1963). Children ‘s understanding of spatial concepts, Canadian journal of psychology, 17, 141161. FAHLMAN (S.E.).— (1988). Faster-learning variations on back-propagation : an empirical study. In Proceedings of the 1988 connexionnist models summer school. San Mateo, CA, Morgan Kaufman. FAHLMAN (S.E.) et LEBIERE (c.).— (1990). The cascadecorrelation learning architecture. Technical report. CMUCS-90-100. School of computer science, Carnegy-Mellon university. FLAVELL (J.H.), EVERETT (B.A.), CROFT (K.) et FLAVELL (E.R.).— (1981). Young children’s knowledge about visual perception : Further evidence for level one-level two distinction. Developmental psychology, 17, 99-103. FLAVELL (J.H.), GREEN (F.L.) et FLAVELL (E.R.). (1986). Developrnent of knowledge about the appearance-reality distinction. Monographs of the society for researcb in child development, 51, n° 212. FODOR (J.).— (1983). The modularity of mind. Cambridge, MA, MIT press. (Traduction française : La modularité de l’esprit. Paris, Editions de minuit. 1986). FODOR (J.).— (1985). Fodor’s guide to mental representation : The intelligent Auntie’s vademecum. Mind, 94, 76-100. FODOR (J.).— (1994). Concepts : a potboiler. Cognition, 50, 95-113. CAREY (S.).— (1985). Conceptual change in childhood. Cambridge, MA, MIT Press. GOLD (E.).— (1965). Limiting recursion. Journal of symbolic logic, 30, 28-48. CARROLL (J.B.), KOHLBERG (L.) et De VRlES. (1984). Psychometrie and Piagetian intelligences: toward resolution of controversy. Intelligence, 8, 67-91. GOPNIK (A.).— (1993). How we know our minds : the illusion of first-person knowledge of intentionality. Behavioral and brain sciences. 16, 1-14. CHOMSKY (N.).— (1959). Review of Skinner, B.F. Verbal behavior. Langage, 25, 26-58. (Traduction française: Langages. 4. 16-49. 1969). GRIZE (J-B.).— (1960). Du groupement au nombre : essai de formalisation. In P. Gréco, J-B Grize, S. Papert et J. Piaget. Problèmes de la construction du nombre. Paris, Presses universitaires de France. CHOMSKY (N.).— (1979). Communications et discussions in Piatelli-Palmarini (Ed.), Théories du langage. Théories de l’apprentissage. Paris. Seuil. G RIZE (J-B.).— (1963). Des groupements à l’algèbre de Boole. ln L. Apostel, J-B Grize. S. Papert et J. Piaget, La filiation des structures. Paris, Presses universitaires de France. G RIZE (J.B.).— (1968). Analyses pour servir à l’étude épistémologique de la notion de fonction. ln J. Piaget, J-B. Grize, A. Szeminska et Vinh-Bang. Epistémologie et psychologie de la fonction. Paris, Presses universitaires de France. HALIDAY (M.A.K.).— (1976). System and function in language. Londres, Oxford university press. HAUGELAND (J.).— (1985). Artificial intelligence, the very idea. Cambridge, MA. MIT Press. (Traduction française: L’esprit dans la machine. Paris, Odile Jacob. 1989). HOOPER (EH.), SWINTON (S.S.) et SIPPLE (T.S.).— (1979). Logical reasoning in middle childhood : a study of the Piagetian concrete operations stage. In H.J. Klausmeier (Ed.), Cognitive leaming and development: Informationprocessing and Piagetian perspectives. Cambridge, MA, Ballinger publishing company. HUMPHREYS (L.G.) et PARSONS (C.K.).— (1979). Piagetian tasks measure intelligence and intelligence tests assess cognitive development: a reanalysis. Intelligence, 3, 369-382. HUMPHREYS (L.G.), RICH (S.A.), et DAVEY (T.C.).— (1985). A Piagetian test of general intelligence. Developmental psychology, 21, 872-877. INHELDER (B.) et PIAGET (J.).— (1955). De la logique de l’enfant à la logique de l’adolescent. Paris, Presses universitaires de France. INMAN (W.c.) et SECREST (B.T.).— (1981). Piaget’s data and Spearrnan’s theory. An empirical reconciliation and its implication for academie achievement. Intelligence. 5, 329344. LAUTREY (J.), RIEBEN (L.) et de RIBAUPIERRE (A.).— (1986). Les différences dans la forme du développement cognitif évalué avec des épreuves piagétiennes : une application de l’analyse des correspondances. Cahiers de psychologie cognitive, 6, 575-613. LILLARD (A.S.).— (1993). Pretend play skills and the child’s theory of mind. Child development, 64, 348- 371. MARGULIS (L.) et SAGAN (D.).— (1989). L’univers bactériel. Paris, Albin Michel. MEHLER et DUPOUX.— (1990). Naître humain. Paris. Odile Jacob. MINSKY et PAPERT.— (1969). Perceptrons. Cambridge, MA, MIT press. MITCHELL (P.).— (1994). Realism and early conception of mind : a synthesis of phylogenetic and ontogenetic issues. In C. Lewis and P. Mitchell (Eds.), Children’s early understanding of mind. Hillsdale, Lawrence Erlbaum. M ITCHELL (P.) et T AYLOR (L.).— (1997). Development of the ability to suppress knowledge of real shape when judging apparent shape. Communication à la VIII e conférence internationale de psycho- 311 logie du développement, Rennes, 3-7 septembre. M ONOD (J.).— (1970). Le hasard et la nécessité. Paris, Seuil. O RSINI-B OUICHOU (F.).— (1982). L’intelligence de l’enfant, ontogenèse des invariants. Paris. Editions du CNRS. P ASCUAL-L EONE (J.).— (1987). Organismic processes for neo-piagetian theories : a dialectical causal account of cognitive development, Inter. J. of psych., 22, 531570. PIAGET (J.).— (1936). La naissance de l’intelligence chez l’enfant. Neuchâtel, Delachaux et Niestlé. PIAGET (1.).— (1937). La construction du réel chez l’enfant. Neuchâtel, Delachaux et Niestlé. PIAGET (J.).— (1970). Les théories de la causalité (EEG 25). Paris. PUF. PIAGET (J.) et GARCIA (R.).— (1971). Les explications causales (EEG 26). Paris. PUF. P IAGET (J.).— (1974). L’explication en psychologie et le problème du parallélisme psychophysiologique. In P. Fraisse et J. Piaget (Eds.), Traité de psychologie expérimentale, V. Paris. Presses universitaires de France. PIAGET (J.).— (1975). L’équilibration des structures cognitives (EEG 33). Paris, PUF. PIAGET (J.).— (1976). Le comportement moteur de l’évolution. Paris. Gallimard. PIAGET (J.).— (1980). Recherches sur les correspondances (EEG 37). Paris, PUE PIAGET (J.) et INHELDER (B.).— (1951). La genèse de l’idée de hasard chez l’enfant. Paris. PUF. PIAGET (J.), INHELDER (B.) et SZEMINSKA (A.). (1948). La géométrie spontanée de l’enfant. Paris, PUF. PIATELLI-PALMARINI (M.).— (1979). Théories langage. Théories de l’apprentissage. Paris, Seuil. du P UTNAM (H.).— (1988). Representation and reality. Cambridge, MA, MIT press. (Traduction française : Représentation et réalité. Paris, Gallimard. 1990). S EARLE (J.R.).— (1986) L’intentionalité. Essai de philosophie des états mentaux. Paris, Editions de minuit. S TEPHENS (B.), McL AUGHLIN (J.A.), M ILLER (C.K.) and G LASS (G. V.).— (1972). Factorial structure of selected psycho-educational measures and Piagetian reasoning assessments, Developmental psychology, 12, 343-346. THOM (R.).— (1982). Esquisse d’une sémiophysique. Paris, Interéditions. WERMUS (P.).— (1973). La formalisation groupements. Archives de psychologie, 42. des W HITEN (A.).— (1994). Grades of mindreadind. In C. Lewis and P. Mitchell (Eds.), Children’s early understanding of mind. Hillsdale. Lawrence Erlbaum.