Concours B/L 2014 Ecole Normale Supérieure Concours B/L 2014 Economie Epreuve commune sur dossier : oral Jury : Maya Bacache et Gaël Giraud Sujet : L’épistémologie de Friedman Document 1 : Milton Friedman (1953), « La méthodologie de l'économie positive », extrait d'Essais d'économie positive. Document 2 : Tjalling Koopmans (1957), Trois essais sur la science économique contemporaine. Document 3 : Philippe Mongin (2000), « La méthodologie économique au XXème siècle », dans Alain Béraud et Gilbert Faccarello, Nouvelle histoire de la pensée économique. Document 4 : Robert Lucas (1980), « Méthodes et problèmes dans la théorie du cycle d'affaires ». Document 5 : Steve Keen (2014), L'imposture économique. Document 1 : Milton Friedman (1953), « La méthodologie de l'économie positive », extrait d'Essais d'économie positive, Paris : LITEC, 1995. p.7, p.11. Considérée comme un corps d'hypothèses se rapportant à la réalité, la théorie doit être jugée sous l'angle de son pouvoir de prédiction par rapport à la catégorie de phénomènes qu'elle est censée « expliquer ». Seules les données factuelles peuvent montrer si elle est « vraie » ou « fausse », ou mieux si elle peut être considérée comme « validée » ou « rejetée ». Comme je l'expliquerai plus longuement un peu plus loin, le seul test pertinent de la validité d'une hypothèse est la confrontation de ses prévisions avec l'expérience. L'hypothèse est rejetée si ses prévisions sont contredites (« fréquemment » ou plus souvent que des prévisions provenant d'une hypothèse alternative) ; elle est validée si ses prévisions ne sont pas contredites ; elle est considérée comme très fiable si elle a survécu à de nombreuse occasisons occasions d'être contredite. Les données factuelles ne peuvent jamais « prouver » une hypothèse, elles peuvent seulement ne pas réussir à la réfuter, et c'est ce que nous voulons signifier lorsque nous disons, de manière quelque peu inexacte, qu'une hypothèse a été « confirmée » par l'expérience. (…) Pour autant qu'une théorie puisse être considérée avec des « postulats » et pour autant que le « réalisme » de ces postulats puissent puisse être évalué indépendamment de la validité des prédictions qu'elle permet, la relation entre la signification d'une théorie et le « réalisme » de ses « postulats » est presque l'inverse de celle ainsi suggérée. On pourra découvrir par exemple que les hypothèses véritablement importantes et significatives ont des « postulats » qui représentent très imparfaitement la réalité. En général, plus une théorie est significative, plus ses postulats sont (au sens que le terme peut prendre ici) irréalistes. La raison de ce phénomène est simple. Une hypothèse est importante si elle « explique » beaucoup à partir de peu, c’est-à-dire si elle extrait les éléments communs et cruciaux de l’ensemble des circonstances complexes entourant les phénomènes à expliquer, et permet des prévisions valides sur la base de ces seuls éléments. Une hypothèse, pour être importante, doit par conséquent avoir des postulats empiriquement faux ; elle ne doit prendre en compte et ne rendre compte d’aucune des nombreuses autres circonstances connexes, dans la mesure où son efficacité même révèle la non-pertinence de ces circonstances connexes pour expliquer les phénomènes concernés. Pour dire les choses de manière moins paradoxale, la question adéquate à poser concernant les « postulats » d’une théorie n’est pas celle de savoir s’ils sont empiriquement « réalistes », car ils ne le sont jamais, mais s’ils constituent des approximations suffisamment correctes par rapport au but recherché. Et on ne peut répondre à cette question qu’en tentant de voir si la théorie fonctionne, donc si elle permet des prévisions suffisamment précises. Les deux tests, bien que considérés comme indépendants, se réduisent dès lors à un seul. Document 2 : Tjalling Koopmans (1957), Trois essais sur la science économique contemporaine, Paris : Dunod, 1970, pp.138-139. On peut élever un certain nombre d'objections à une telle conception [celle de Friedman] de l'élaboration d'une théorie. En premier lieu, afin que nous puissions disposer d'une théorie qui soit totalement réfutable, il est nécessaire que les postulats soient alors complétés par une description très précise de la catégorie des implications qui peuvent confirmer ou infirmer la théorie. Autrement toute contradiction entre une implication et une observation pourrait être levée par le simple fait de reclasser l'implication envisagée parmi les implications « directes ». Friedman répond à cette objection par la suggestion suivante : il devrait y avoir, dans chaque cas, des « règles d'utilisation du modèle », c'est-à-dire une spécification de la « catégorie de phénomènes que l'hypothèse est appelée à expliquer ». Mais une seconde objection nait de cette réponse apportée à la première. Enoncer un ensemble de postulats, puis exclure un sous-ensemble de leurs implications de la vérification, constituent un curieux détour pour spécifier le contenu d'une théorie que l'on estime propre à être réfutée par l'expérience. Cela ne nous explique pas les raisons de ces exceptions. L'impression d'ingéniosité que nous donne le procédé est renforcée par le fait que, dans chacun des exemples que cite le Professeur Friedman, il fait preuve d'une connaissance plus grande du phénomène envisagé que ne laisserait supposer les postulats qu'l il suggère pour l'analyse. Il accepte de prévoir les coups d'un joueur de billard expert, à partir de l'hypothèse que le joueur connaît les formules mathématiques de la mécanique et les utilise dans chaque situation avec une rapidité extraordinaire, alors que lui (Friedman) sait parfaitement que les plus habiles joueurs de billard ne possèdent pas ces dons. (…) On ne peut éviter, en face de tant d'ingéniosité, de se sentir un peu mal à l'aise. Comme la paix, la vérité est indivisible. Elle ne peut être parcellaire. Avant de pouvoir accepter le fait que les divergences entre les postulats de comportement et les comportements directement observés n'affectent pas le pouvoir de prédiction de certaines implications des postulats, il nous faut comprendre les raisons pour lesquelles ces divergences n'ont pas d'importance. Ceci est d'autant plus important dans un domaine tel que celui de l'économie où, comme le note également Friedman, les possibilités de vérifier les prédictions et les implications dérivées des postulats, sont relativement rares et où l'issue de cette vérificatio n vérification demeure souvent quelque peu incertaine. Les difficultés de vérification semblent provenir en grande partie de l'impossibilité virtuelle de réaliser des expériences dans des conditions qui soient proches de celles de la réalité, et de l'existence d'un nombre élevé de facteurs qui influencent simultanément l'évolution économique réelle. Dans de telles conditions, il nous faut exploiter toutes les preuves dont nous pouvons être assurés, qu'elles soient directes ou indirectes. Si l'économie est handicapée par rapport à d'autres sciences, par la présence d'obstacles sérieux et peut-être insurmontables, à la réalisation d'une expérimentation valable, toute occasion d'introspection par l'agent en situation de décision individuelle et toute chance de l'observer doivent être saisies comme sources d'évidence qui puissent dans une certaine mesure compenser cet ce handicap. Nous ne pourrons réellement être confiants dans la valeur de notre connaissance économique tant que ses déductions ne feront pas concorder les schémas directement observés des comportements des individus et les implications, applicables à l'ensemble de l'économie, que nous pourrons valablement tester. Document 3 : Philippe Mongin (2000), « La méthodologie économique au XXème siècle », dans Alain Béraud et Gilbert Faccarello, Nouvelle histoire de la pensée économique, Paris : La Découverte, pp.349-351. Le problème du réalisme des hypothèses en science économique constitue une figure imposée de la méthodologie économique d'après-guerre (…). La formulation en est due à Milton Friedman, dans le chapitre qui ouvre ses Essays in Positive Economics (1953), intitulé « The Methodology of Positive Economics » (…). Suivant une première lecture, ce texte n'est rien d'autre qu'une proclamation supplémentaire en faveur de l'économie comme science empirique (ou positive). Friedman prendrait parti contre l'apriorisme dans le passage où il attaque les interprétations tautologisantes de l'économie. A la certitude factice qu'inspiraient les axiomes, il opposerait l'acceptation franche de la discipline du test, qu'il analyserait suivant la grille exigeante du réfutationnisme. Mieux que les travaux de Hutchison ou de Samuelson, l'essai de Friedman marquerait finalement la pénétration des idées poppériennes en méthodologie économique. (…) Mais suivant une seconde lecture, plus précise et plus pertinente, The Methodology of Positive Economics se caractérise moins par ses proclamations réfutationnistes que par les réserves qui les accompagnent aussitôt. Certains interprètes ont conclu à la compatibilité des deux lectures : dans ces réticences, ils croient voir l'expression d'un falsificationnisme raffiné au sens de Lakatos (1970), ou seulement nuancé en un sens moins technique. La thèse dite aujourd'hui « de Duhem-Quine » (…) affirme en substance le caractère ambigu de la réfutation, compte tenu de la pluralité inévitable des énoncés scientifiques soumis au test (hypothèses principales, hypothèses auxiliaires et conditions initiales). (…) Quelques interprètes ont généreusement prêté à Friedman cette variante doctrinale. L'essai de 1953 prend en compte la thèse de Duhem-Quine au moment où il rappelle qu'il existe toujours une infinité d'hypothèses en concurrence pour rendre compte d'un ensemble fixé de données. Mais en fait, cette affirmation constitue un point de basculement du texte. (…) Friedman avance la thèse à jamais célèbre suivant laquelle on ne peut pas tester une théorie en invoquant le réalisme ou, au contraire, l'absence de réalisme de ses hypothèses fondamentales. Toute l'originialité originalité méthodologique de Friedman est là, dans cette affirmation inattendue que les hypothèses fondamentales (assumptions) d'une théorie scientifique, par opposition à ses conséquences (implications) peuvent, et même doivent, être déunuées dénuées de réalisme. (…) Les conséquences pratiques de la thèse friedmanienne apparaissent dans le passage célèbre qu'il consacre aux hypothèses de maximisation de la microéconomie néoclassique. Eventuellement reformulées à l'aide de la locution « comme si » - « les entreprises se comportent comme si elles cherchaient rationnellement à maximiser leurs profits attendus » - ces hypothèses échapperaient à la démarche empirique et critique sur laquelle insistaient solennellement les premières pages de l'essai. Le conservatisme inhérent à la thèse sur les hypothèses fondamentales explique une troisième interprétation, plus défendable, à tout prendre, que les deux précédentes : Friedman adhérerait à une philosophie des sciences non réfutationniste, soit le conventionnalisme qui recommande de mettre à l'abri les principes premiers de la science par une décision volontaire sans justification ultime ; soit l'instrumentalisme c'est-à-dire la doctrine qui, suivant la définition qu'en donne Popper (1963), réduit les théories scientifique à n'être que des « instruments à prédire ». (…) Suivant une quatrième interprétation encore, l'absence de « réalisme » désignerait l'usage par les sciences, et au premier chef la physique, de termes spéciaux, qui renvoient à des entités non directement observables (les philosophes les désignent souvent comme des « termes théoriques »). (…) Une telle notion épistémologique d' « irréalisme » ne s'applique pas nécessairement à l'économie, dont les termes spéciaux (comme par exemple l'utilité ou la préférence) ont quelque chose de familier et d'accessible à la différence de ceux de la physique (comme la gravitation ou l'interaction forte). Replacée dans ce cadre, la thèse de Friedman affirmerait qu'une théorie serait d'autant plus respectable, scientifiquement, qu'elle peut s'appuyer sur des termes spéciaux plus nombreux et que ceux-ci jouent un rôle plus fondamental dans ses déductions. Document 4 : Robert Lucas (1980), « Méthodes et problèmes dans la théorie du cycle d'affaires », Journal of Money, Credit and Banking (Journal de la monnaie, du crédit et de la banque), Vol.12, No.4, pp.696-697. L'une des fonctions de l'économie théorique est de proposer des systèmes économiques pleinement articulés qui peuvent servir de laboratoires dans lesquelles des politiques, qui seraient bien trop chères à expérimenter dans les économies réelles, peuvent être testées pour un coût bien moindre. Pour réaliser cette fonction, il est essentiel que l'économie artificielle « modélisée » soit distinguée, dans les discussions, aussi précisément que possible des économies réelles. Dans la mesure où il existe une certaine confusion entre les déclarations d'opinion sur la manière dont nous pensons que les économies réelles réagissent à certaines politiques et les déclarations vérifiables sur la manière dont le modèle réagit, la théorie n'est pas utilisée efficacement pour nous aider à voir quelles opinions sur le comportement des économies réelles sont précises et lesquelles ne le sont pas. C'est dans ce sens que l'insistance sur le « réalisme » d'un modèle économique sape son utilité potentielle pour penser la réalité. Tout modèle suffisamment bien articulé pour donner des réponses claires aux questions que l'on se pose sera nécessairement artificiel, abstrait, manifestement « irréaliste ». Dans le même temps, tous les modèles bien articulés ne sont également utiles. Bien que nous soyons intéressés par les modèles car nous pensons qu'ils peuvent nous aider à comprendre certains problèmes pour lesquels nous sommes pour le moment ignorants, nous devons les tester en tant qu'imitations utiles de la réalité en les soumettant à des chocs pour lesquels nous savons plus ou moins certainement comment les économies réelles, ou une partie de celles-ci, y réagiront. Plus le modèle imite les réponses données par des économies réelles à de simples questions, plus nous pouvons lui faire confiance pour répondre à des questions plus complexes. C'est dans ce sens que l'on préfère avoir plus de « réalisme » dans un modèle. Ce point de vue général sur la nature de la théorie économique nous conduit à affirmer qu'une « théorie » n'est pas un assemblage d'affirmations sur le comportement de l'économie réelle, mais plutôt un ensemble explicite d'instructions pour construire un système parallèle ou analogue (une imitation mécanique de l'économie). Un « bon » modèle, de ce point de vue, ne sera pas exactement plus « réaliste » qu'un mauvais modèle, mais il offira offrira de meilleures imitations. Bien entendu, ce que l'on entend par de « meilleures imitations » dépendra des questions particulières auxquelles nous désiront désirons apporter une réponse. Document 5 : Steve Keen (2014), L'Imposture économique, Paris : Editions de l'Atelier. A paraître. Les hypothèses d’exclusion Les hypothèses d’exclusion énoncent que tels aspects de la réalité n’ont pas d’effet, ou très peu, sur le phénomène étudié. L’article de Friedman faisait un usage important de l’exemple d’une balle tombant près de la terre, presque « comme si » elle avait été lâchée dans le vide. Dans cet exemple, il est juste de supposer que la balle est tombée dans le vide, puisque la résistance de l’air a un impact négligeable sur la chute de la balle. Cependant, cela est de toute évidence faux pour une plume lâchée dans les mêmes circonstances. Friedman explique que bien qu’il soit irréaliste de dire « supposons que la balle est lâchée dans le vide », la théorie de la gravité a un grand pouvoir explicatif : elle explique beaucoup (l’accélération des corps en chute libre à proximité de la terre) avec très peu (une constante gravitationnelle et un simple calcul). Cette théorie ne devrait être remplacée par une autre qu’à condition que sa rivale soit au moins aussi précise et également acceptable, sur d’autres bases, ou bien « quand il existe une autre théorie dont on sait qu’elle permet effectivement une plus grande précision mais à un coût plus important » (Friedman, 1953). Musgrave considère qu’une partie des méditations de Friedman est raisonnable dans ce domaine, mais que sa proposition « dialectique » selon laquelle « plus la théorie est significative, plus ses postulats sont irréalistes » est exagérée. En fait, il est possible de reformuler ces énoncés « irréalistes » de manière qu’ils soient « réalistes » : par exemple, il est réaliste de dire que la résistance de l’air est négligeable pour les corps denses tombant sur de courtes distances. (…) Cependant, les hypothèses d’exclusion n’occupent qu’une faible place dans grande famille des hypothèses. Bien plus important est le rôle joué par les hypothèses essentielles. (...) Les hypothèses essentielles Une hypothèse essentielle définit les conditions sous lesquelles une théorie particulière s’applique. Si ces conditions ne sont pas vérifiées, alors la théorie ne s’applique pas. En économie, par exemple, on postule que le risque peut être utilisé comme approximation de l’incertitude, hypothèse qui imprègne les théories conventionnelles de la macroéconomie et de la finance (...). La notion de risque s’applique à des situations où la régularité des événements passés constitue un indicateur pertinent du cours des événements futurs. Les jeux d’argent nous en donnent l’exemple : si on lance une pièce et qu’elle tombe à peu près la moitié du temps sur face, alors vous pouvez parier de manière certaine qu’elle tombera une fois sur deux sur face, dans le futur. Si quelqu’un parie avec vous que face tombera 4 fois sur 10, il serait raisonnable d’accepter le pari. On associera à un événement risqué une probabilité et une variance des résultats observés autour de cette probabilité, qui pourra être estimée de manière fiable à l’aide de techniques statistiques. La notion d’incertitude s’applique quand le passé ne fournit pas d’indication sur les événements futurs. Bien que le fait que l’on ne puisse pas prédire le futur constitue l’essence de la condition humaine, l’aspect nébuleux de l’incertitude conduit de nombreuses personnes (et certainement la majorité des économistes) à rencontrer des difficultés pour saisir ce concept. Par conséquent, ils font comme si le concept quantifiable de risque pouvait, avec sûreté, remplacer la notion non quantifiable d’incertitude. (…) Une observation similaire peut être faite au sujet de tout nouvel investissement. Même si des investissements similaires ont été opérés dans le passé, l’environnement économique d’un nouvel investissement diffère de celui des précédents. Les tendances passées ne peuvent permettre de généraliser en toute confiance pour effectuer des prédictions sur les performances futures. Et pourtant, cette procédure de généralisation constitue l’hypothèse essentielle de l’usage des statistiques dans le calcul du risque. Le postulat selon lequel le risque peut être utilisé comme une approximation de l’incertitude, quand on cherche à évaluer des investissements, est alors irréaliste. Une théorie qui s’appuie sur une telle hypothèse n’est clairement pas meilleure qu’une théorie qui ne le ferait pas – bien au contraire en fait. Cette hypothèse nous dit que le domaine pertinent d’application de la théorie est un monde dans lequel le futur est simplement soumis au risque calculable. (...) Une telle hypothèse ne devrait être posée que si elle appartient à la troisième catégorie de Musgrave : les hypothèses heuristiques. Les hypothèses heuristiques Une hypothèse heuristique est une hypothèse dont on sait qu’elle est fausse, mais que l’on formule dans un premier temps, avant d’aller vers une théorie plus générale. Musgrave donne l’exemple de l’hypothèse de Newton selon laquelle le système solaire n’était constitué que de la terre et du soleil. Cela donna naissance à la théorie selon laquelle les planètes suivraient une orbite elliptique (ce qui est un compromis raisonnable dans la représentation des véritables orbites planétaires de notre système solaire). L’étape suivante majeure fut la tentative de Poincaré, en 1899 : ce dernier tenta de développer une formule décrivant le mouvement des planètes dans un système avec plus d’une planète. Sa preuve selon laquelle il n’existe pas de telle formule, et que les orbites véritables interagissent de manière profondément imprévisible, inaugura ce que l’on connaît désormais sous le nom de « théorie du chaos » ou « théorie de la complexité » (bien que cette théorie ne fût développée que soixante-huit ans plus tard, quand les ordinateurs modernes permirent sa redécouverte). La théorie moderne du mouvement des planètes reconnaît désormais que les orbites stables de notre système ne peuvent qu’avoir évolué, sur une énorme période de temps, à partir d’orbites bien moins stables, qui auraient provoqué des collisions entre protoplanètes. Il est désormais admis que la Lune, par exemple, est le produit d’une collision entre une protoplanète et notre Terre. (…) Quand une hypothèse heuristique est posée de manière consciente par un scientifique développant une théorie, elle est normalement désignée comme telle. Par exemple, quand il développa la théorie de la relativité, Einstein explique que la distance parcourue par un individu marchant d’un bout à l’autre d’un train est égale à la somme de la distance parcourue par le train et de la largeur du train. Cependant, il poursuivit en déclarant : « nous verrons plus tard que ce résultat ne peut être maintenu ; en d’autres termes, la loi que nous venons juste d’écrire n’est pas vérifiée dans la réalité. Pour le moment, cependant, nous supposerons qu’elle est correcte » (Einstein, 1961, [1916]). Quand Einstein se débarrassa de cette hypothèse heuristique, il déboucha sur la théorie de la relativité. Le plus grand réalisme de la théorie d’Einstein transforma notre compréhension de la réalité et étendit formidablement les capacités physiques et intellectuelles de notre espèce. Cependant, si l’on accepte la méthodologie friedmanienne, il faudrait alors affirmer que la théorie d’Einstein est plus pauvre que celle de Newton, car plus réaliste. En général, n’en déplaise à Friedman, abandonner une hypothèse heuristique contredite par les faits conduit, en termes factuels, à une meilleure théorie, et non l’inverse. Juger les hypothèses Les théories peuvent alors être évaluées, dans une certaine mesure, au regard de leurs hypothèses, à condition de disposer d’une taxinomie intelligente de ces hypothèses. Une théorie peut très bien tirer parti d’hypothèses « irréalistes » si celles-ci énoncent, de manière claire, que certains facteurs ne sont pas importants pour expliquer les phénomènes en question. Mais la théorie sera bancale si ces hypothèses définissent le domaine d’application de la théorie et que les phénomènes du monde réel se trouvent exclus de ce domaine. Ces hypothèses peuvent être justifiées si elles sont simplement des outils heuristiques, utilisés pour simplifier le processus de déduction d’une théorie plus générale, mais à condition qu'une théorie plus générale soit en effet déduite.