Sujet 9 - Gaël Giraud

publicité
Concours B/L 2014
Ecole Normale Supérieure
Concours B/L 2014
Economie
Epreuve commune sur dossier : oral
Jury : Maya Bacache et Gaël Giraud
Sujet : L’épistémologie de Friedman
Document 1 : Milton Friedman (1953), « La méthodologie de l'économie positive », extrait
d'Essais d'économie positive.
Document 2 : Tjalling Koopmans (1957), Trois essais sur la science économique
contemporaine.
Document 3 : Philippe Mongin (2000), « La méthodologie économique au XXème siècle »,
dans Alain Béraud et Gilbert Faccarello, Nouvelle histoire de la pensée économique.
Document 4 : Robert Lucas (1980), « Méthodes et problèmes dans la théorie du cycle
d'affaires ».
Document 5 : Steve Keen (2014), L'imposture économique.
Document 1 : Milton Friedman (1953), « La méthodologie de l'économie
positive », extrait d'Essais d'économie positive, Paris : LITEC, 1995. p.7,
p.11.
Considérée comme un corps d'hypothèses se rapportant à la réalité, la théorie doit être
jugée sous l'angle de son pouvoir de prédiction par rapport à la catégorie de phénomènes
qu'elle est censée « expliquer ». Seules les données factuelles peuvent montrer si elle est
« vraie » ou « fausse », ou mieux si elle peut être considérée comme « validée » ou
« rejetée ». Comme je l'expliquerai plus longuement un peu plus loin, le seul test pertinent de
la validité d'une hypothèse est la confrontation de ses prévisions avec l'expérience.
L'hypothèse est rejetée si ses prévisions sont contredites (« fréquemment » ou plus souvent
que des prévisions provenant d'une hypothèse alternative) ; elle est validée si ses prévisions ne
sont pas contredites ; elle est considérée comme très fiable si elle a survécu à de nombreuse
occasisons occasions d'être contredite. Les données factuelles ne peuvent jamais « prouver »
une hypothèse, elles peuvent seulement ne pas réussir à la réfuter, et c'est ce que nous voulons
signifier lorsque nous disons, de manière quelque peu inexacte, qu'une hypothèse a été
« confirmée » par l'expérience.
(…) Pour autant qu'une théorie puisse être considérée avec des « postulats » et pour
autant que le « réalisme » de ces postulats puissent puisse être évalué indépendamment de la
validité des prédictions qu'elle permet, la relation entre la signification d'une théorie et le
« réalisme » de ses « postulats » est presque l'inverse de celle ainsi suggérée. On pourra
découvrir par exemple que les hypothèses véritablement importantes et significatives ont des
« postulats » qui représentent très imparfaitement la réalité. En général, plus une théorie est
significative, plus ses postulats sont (au sens que le terme peut prendre ici) irréalistes. La
raison de ce phénomène est simple. Une hypothèse est importante si elle « explique »
beaucoup à partir de peu, c’est-à-dire si elle extrait les éléments communs et cruciaux de
l’ensemble des circonstances complexes entourant les phénomènes à expliquer, et permet des
prévisions valides sur la base de ces seuls éléments. Une hypothèse, pour être importante, doit
par conséquent avoir des postulats empiriquement faux ; elle ne doit prendre en compte et ne
rendre compte d’aucune des nombreuses autres circonstances connexes, dans la mesure où
son efficacité même révèle la non-pertinence de ces circonstances connexes pour expliquer les
phénomènes concernés.
Pour dire les choses de manière moins paradoxale, la question adéquate à poser
concernant les « postulats » d’une théorie n’est pas celle de savoir s’ils sont empiriquement
« réalistes », car ils ne le sont jamais, mais s’ils constituent des approximations suffisamment
correctes par rapport au but recherché. Et on ne peut répondre à cette question qu’en tentant
de voir si la théorie fonctionne, donc si elle permet des prévisions suffisamment précises. Les
deux tests, bien que considérés comme indépendants, se réduisent dès lors à un seul.
Document 2 : Tjalling Koopmans (1957), Trois essais sur la science
économique contemporaine, Paris : Dunod, 1970, pp.138-139.
On peut élever un certain nombre d'objections à une telle conception [celle de
Friedman] de l'élaboration d'une théorie. En premier lieu, afin que nous puissions disposer
d'une théorie qui soit totalement réfutable, il est nécessaire que les postulats soient alors
complétés par une description très précise de la catégorie des implications qui peuvent
confirmer ou infirmer la théorie. Autrement toute contradiction entre une implication et une
observation pourrait être levée par le simple fait de reclasser l'implication envisagée parmi les
implications « directes ».
Friedman répond à cette objection par la suggestion suivante : il devrait y avoir, dans
chaque cas, des « règles d'utilisation du modèle », c'est-à-dire une spécification de la
« catégorie de phénomènes que l'hypothèse est appelée à expliquer ». Mais une seconde
objection nait de cette réponse apportée à la première. Enoncer un ensemble de postulats, puis
exclure un sous-ensemble de leurs implications de la vérification, constituent un curieux
détour pour spécifier le contenu d'une théorie que l'on estime propre à être réfutée par
l'expérience. Cela ne nous explique pas les raisons de ces exceptions. L'impression
d'ingéniosité que nous donne le procédé est renforcée par le fait que, dans chacun des
exemples que cite le Professeur Friedman, il fait preuve d'une connaissance plus grande du
phénomène envisagé que ne laisserait supposer les postulats qu'l il suggère pour l'analyse. Il
accepte de prévoir les coups d'un joueur de billard expert, à partir de l'hypothèse que le joueur
connaît les formules mathématiques de la mécanique et les utilise dans chaque situation avec
une rapidité extraordinaire, alors que lui (Friedman) sait parfaitement que les plus habiles
joueurs de billard ne possèdent pas ces dons.
(…) On ne peut éviter, en face de tant d'ingéniosité, de se sentir un peu mal à l'aise.
Comme la paix, la vérité est indivisible. Elle ne peut être parcellaire. Avant de pouvoir
accepter le fait que les divergences entre les postulats de comportement et les comportements
directement observés n'affectent pas le pouvoir de prédiction de certaines implications des
postulats, il nous faut comprendre les raisons pour lesquelles ces divergences n'ont pas
d'importance. Ceci est d'autant plus important dans un domaine tel que celui de l'économie où,
comme le note également Friedman, les possibilités de vérifier les prédictions et les
implications dérivées des postulats, sont relativement rares et où l'issue de cette vérificatio n
vérification demeure souvent quelque peu incertaine. Les difficultés de vérification semblent
provenir en grande partie de l'impossibilité virtuelle de réaliser des expériences dans des
conditions qui soient proches de celles de la réalité, et de l'existence d'un nombre élevé de
facteurs qui influencent simultanément l'évolution économique réelle. Dans de telles
conditions, il nous faut exploiter toutes les preuves dont nous pouvons être assurés, qu'elles
soient directes ou indirectes. Si l'économie est handicapée par rapport à d'autres sciences, par
la présence d'obstacles sérieux et peut-être insurmontables, à la réalisation d'une
expérimentation valable, toute occasion d'introspection par l'agent en situation de décision
individuelle et toute chance de l'observer doivent être saisies comme sources d'évidence qui
puissent dans une certaine mesure compenser cet ce handicap. Nous ne pourrons réellement
être confiants dans la valeur de notre connaissance économique tant que ses déductions ne
feront pas concorder les schémas directement observés des comportements des individus et
les implications, applicables à l'ensemble de l'économie, que nous pourrons valablement
tester.
Document 3 : Philippe Mongin (2000), « La méthodologie économique au
XXème siècle », dans Alain Béraud et Gilbert Faccarello, Nouvelle histoire de la
pensée économique, Paris : La Découverte, pp.349-351.
Le problème du réalisme des hypothèses en science économique constitue une figure
imposée de la méthodologie économique d'après-guerre (…). La formulation en est due à
Milton Friedman, dans le chapitre qui ouvre ses Essays in Positive Economics (1953), intitulé
« The Methodology of Positive Economics » (…).
Suivant une première lecture, ce texte n'est rien d'autre qu'une proclamation
supplémentaire en faveur de l'économie comme science empirique (ou positive). Friedman
prendrait parti contre l'apriorisme dans le passage où il attaque les interprétations
tautologisantes de l'économie. A la certitude factice qu'inspiraient les axiomes, il opposerait
l'acceptation franche de la discipline du test, qu'il analyserait suivant la grille exigeante du
réfutationnisme. Mieux que les travaux de Hutchison ou de Samuelson, l'essai de Friedman
marquerait finalement la pénétration des idées poppériennes en méthodologie économique.
(…) Mais suivant une seconde lecture, plus précise et plus pertinente, The
Methodology of Positive Economics se caractérise moins par ses proclamations
réfutationnistes que par les réserves qui les accompagnent aussitôt. Certains interprètes ont
conclu à la compatibilité des deux lectures : dans ces réticences, ils croient voir l'expression
d'un falsificationnisme raffiné au sens de Lakatos (1970), ou seulement nuancé en un sens
moins technique. La thèse dite aujourd'hui « de Duhem-Quine » (…) affirme en substance le
caractère ambigu de la réfutation, compte tenu de la pluralité inévitable des énoncés
scientifiques soumis au test (hypothèses principales, hypothèses auxiliaires et conditions
initiales). (…) Quelques interprètes ont généreusement prêté à Friedman cette variante
doctrinale. L'essai de 1953 prend en compte la thèse de Duhem-Quine au moment où il
rappelle qu'il existe toujours une infinité d'hypothèses en concurrence pour rendre compte
d'un ensemble fixé de données. Mais en fait, cette affirmation constitue un point de
basculement du texte.
(…) Friedman avance la thèse à jamais célèbre suivant laquelle on ne peut pas tester
une théorie en invoquant le réalisme ou, au contraire, l'absence de réalisme de ses hypothèses
fondamentales. Toute l'originialité originalité méthodologique de Friedman est là, dans cette
affirmation inattendue que les hypothèses fondamentales (assumptions) d'une théorie
scientifique, par opposition à ses conséquences (implications) peuvent, et même doivent, être
déunuées dénuées de réalisme.
(…) Les conséquences pratiques de la thèse friedmanienne apparaissent dans le
passage célèbre qu'il consacre aux hypothèses de maximisation de la microéconomie néoclassique. Eventuellement reformulées à l'aide de la locution « comme si » - « les entreprises
se comportent comme si elles cherchaient rationnellement à maximiser leurs profits attendus »
- ces hypothèses échapperaient à la démarche empirique et critique sur laquelle insistaient
solennellement les premières pages de l'essai. Le conservatisme inhérent à la thèse sur les
hypothèses fondamentales explique une troisième interprétation, plus défendable, à tout
prendre, que les deux précédentes : Friedman adhérerait à une philosophie des sciences non
réfutationniste, soit le conventionnalisme qui recommande de mettre à l'abri les principes
premiers de la science par une décision volontaire sans justification ultime ; soit
l'instrumentalisme c'est-à-dire la doctrine qui, suivant la définition qu'en donne Popper
(1963), réduit les théories scientifique à n'être que des « instruments à prédire ».
(…) Suivant une quatrième interprétation encore, l'absence de « réalisme » désignerait
l'usage par les sciences, et au premier chef la physique, de termes spéciaux, qui renvoient à
des entités non directement observables (les philosophes les désignent souvent comme des
« termes théoriques »). (…) Une telle notion épistémologique d' « irréalisme » ne s'applique
pas nécessairement à l'économie, dont les termes spéciaux (comme par exemple l'utilité ou la
préférence) ont quelque chose de familier et d'accessible à la différence de ceux de la
physique (comme la gravitation ou l'interaction forte). Replacée dans ce cadre, la thèse de
Friedman affirmerait qu'une théorie serait d'autant plus respectable, scientifiquement, qu'elle
peut s'appuyer sur des termes spéciaux plus nombreux et que ceux-ci jouent un rôle plus
fondamental dans ses déductions.
Document 4 : Robert Lucas (1980), « Méthodes et problèmes dans la théorie du
cycle d'affaires », Journal of Money, Credit and Banking (Journal de la
monnaie, du crédit et de la banque), Vol.12, No.4, pp.696-697.
L'une des fonctions de l'économie théorique est de proposer des systèmes
économiques pleinement articulés qui peuvent servir de laboratoires dans lesquelles des
politiques, qui seraient bien trop chères à expérimenter dans les économies réelles, peuvent
être testées pour un coût bien moindre. Pour réaliser cette fonction, il est essentiel que
l'économie artificielle « modélisée » soit distinguée, dans les discussions, aussi précisément
que possible des économies réelles. Dans la mesure où il existe une certaine confusion entre
les déclarations d'opinion sur la manière dont nous pensons que les économies réelles
réagissent à certaines politiques et les déclarations vérifiables sur la manière dont le modèle
réagit, la théorie n'est pas utilisée efficacement pour nous aider à voir quelles opinions sur le
comportement des économies réelles sont précises et lesquelles ne le sont pas. C'est dans ce
sens que l'insistance sur le « réalisme » d'un modèle économique sape son utilité potentielle
pour penser la réalité. Tout modèle suffisamment bien articulé pour donner des réponses
claires aux questions que l'on se pose sera nécessairement artificiel, abstrait, manifestement
« irréaliste ». Dans le même temps, tous les modèles bien articulés ne sont également utiles.
Bien que nous soyons intéressés par les modèles car nous pensons qu'ils peuvent nous aider à
comprendre certains problèmes pour lesquels nous sommes pour le moment ignorants, nous
devons les tester en tant qu'imitations utiles de la réalité en les soumettant à des chocs pour
lesquels nous savons plus ou moins certainement comment les économies réelles, ou une
partie de celles-ci, y réagiront. Plus le modèle imite les réponses données par des économies
réelles à de simples questions, plus nous pouvons lui faire confiance pour répondre à des
questions plus complexes. C'est dans ce sens que l'on préfère avoir plus de « réalisme » dans
un modèle.
Ce point de vue général sur la nature de la théorie économique nous conduit à affirmer
qu'une « théorie » n'est pas un assemblage d'affirmations sur le comportement de l'économie
réelle, mais plutôt un ensemble explicite d'instructions pour construire un système parallèle ou
analogue (une imitation mécanique de l'économie). Un « bon » modèle, de ce point de vue, ne
sera pas exactement plus « réaliste » qu'un mauvais modèle, mais il offira offrira de
meilleures imitations. Bien entendu, ce que l'on entend par de « meilleures imitations »
dépendra des questions particulières auxquelles nous désiront désirons apporter une réponse.
Document 5 : Steve Keen (2014), L'Imposture économique, Paris : Editions de
l'Atelier. A paraître.
Les hypothèses d’exclusion
Les hypothèses d’exclusion énoncent que tels aspects de la réalité n’ont pas d’effet, ou très
peu, sur le phénomène étudié. L’article de Friedman faisait un usage important de l’exemple d’une
balle tombant près de la terre, presque « comme si » elle avait été lâchée dans le vide. Dans cet
exemple, il est juste de supposer que la balle est tombée dans le vide, puisque la résistance de l’air a
un impact négligeable sur la chute de la balle. Cependant, cela est de toute évidence faux pour une
plume lâchée dans les mêmes circonstances.
Friedman explique que bien qu’il soit irréaliste de dire « supposons que la balle est lâchée
dans le vide », la théorie de la gravité a un grand pouvoir explicatif : elle explique beaucoup
(l’accélération des corps en chute libre à proximité de la terre) avec très peu (une constante
gravitationnelle et un simple calcul). Cette théorie ne devrait être remplacée par une autre qu’à
condition que sa rivale soit au moins aussi précise et également acceptable, sur d’autres bases, ou
bien « quand il existe une autre théorie dont on sait qu’elle permet effectivement une plus grande
précision mais à un coût plus important » (Friedman, 1953).
Musgrave considère qu’une partie des méditations de Friedman est raisonnable dans ce
domaine, mais que sa proposition « dialectique » selon laquelle « plus la théorie est significative,
plus ses postulats sont irréalistes » est exagérée. En fait, il est possible de reformuler ces énoncés
« irréalistes » de manière qu’ils soient « réalistes » : par exemple, il est réaliste de dire que la
résistance de l’air est négligeable pour les corps denses tombant sur de courtes distances.
(…) Cependant, les hypothèses d’exclusion n’occupent qu’une faible place dans grande
famille des hypothèses. Bien plus important est le rôle joué par les hypothèses essentielles. (...)
Les hypothèses essentielles
Une hypothèse essentielle définit les conditions sous lesquelles une théorie particulière
s’applique. Si ces conditions ne sont pas vérifiées, alors la théorie ne s’applique pas.
En économie, par exemple, on postule que le risque peut être utilisé comme approximation
de l’incertitude, hypothèse qui imprègne les théories conventionnelles de la macroéconomie et de la
finance (...).
La notion de risque s’applique à des situations où la régularité des événements passés
constitue un indicateur pertinent du cours des événements futurs. Les jeux d’argent nous en donnent
l’exemple : si on lance une pièce et qu’elle tombe à peu près la moitié du temps sur face, alors vous
pouvez parier de manière certaine qu’elle tombera une fois sur deux sur face, dans le futur. Si
quelqu’un parie avec vous que face tombera 4 fois sur 10, il serait raisonnable d’accepter le pari. On
associera à un événement risqué une probabilité et une variance des résultats observés autour de
cette probabilité, qui pourra être estimée de manière fiable à l’aide de techniques statistiques.
La notion d’incertitude s’applique quand le passé ne fournit pas d’indication sur les
événements futurs. Bien que le fait que l’on ne puisse pas prédire le futur constitue l’essence de la
condition humaine, l’aspect nébuleux de l’incertitude conduit de nombreuses personnes (et
certainement la majorité des économistes) à rencontrer des difficultés pour saisir ce concept. Par
conséquent, ils font comme si le concept quantifiable de risque pouvait, avec sûreté, remplacer la
notion non quantifiable d’incertitude.
(…) Une observation similaire peut être faite au sujet de tout nouvel investissement. Même
si des investissements similaires ont été opérés dans le passé, l’environnement économique d’un
nouvel investissement diffère de celui des précédents. Les tendances passées ne peuvent permettre
de généraliser en toute confiance pour effectuer des prédictions sur les performances futures. Et
pourtant, cette procédure de généralisation constitue l’hypothèse essentielle de l’usage des
statistiques dans le calcul du risque.
Le postulat selon lequel le risque peut être utilisé comme une approximation de l’incertitude,
quand on cherche à évaluer des investissements, est alors irréaliste. Une théorie qui s’appuie sur une
telle hypothèse n’est clairement pas meilleure qu’une théorie qui ne le ferait pas – bien au contraire
en fait. Cette hypothèse nous dit que le domaine pertinent d’application de la théorie est un monde
dans lequel le futur est simplement soumis au risque calculable.
(...) Une telle hypothèse ne devrait être posée que si elle appartient à la troisième catégorie
de Musgrave : les hypothèses heuristiques.
Les hypothèses heuristiques
Une hypothèse heuristique est une hypothèse dont on sait qu’elle est fausse, mais que l’on
formule dans un premier temps, avant d’aller vers une théorie plus générale. Musgrave donne
l’exemple de l’hypothèse de Newton selon laquelle le système solaire n’était constitué que de la
terre et du soleil. Cela donna naissance à la théorie selon laquelle les planètes suivraient une orbite
elliptique (ce qui est un compromis raisonnable dans la représentation des véritables orbites
planétaires de notre système solaire).
L’étape suivante majeure fut la tentative de Poincaré, en 1899 : ce dernier tenta de
développer une formule décrivant le mouvement des planètes dans un système avec plus d’une
planète. Sa preuve selon laquelle il n’existe pas de telle formule, et que les orbites véritables
interagissent de manière profondément imprévisible, inaugura ce que l’on connaît désormais sous le
nom de « théorie du chaos » ou « théorie de la complexité » (bien que cette théorie ne fût
développée que soixante-huit ans plus tard, quand les ordinateurs modernes permirent sa
redécouverte).
La théorie moderne du mouvement des planètes reconnaît désormais que les orbites stables
de notre système ne peuvent qu’avoir évolué, sur une énorme période de temps, à partir d’orbites
bien moins stables, qui auraient provoqué des collisions entre protoplanètes. Il est désormais admis
que la Lune, par exemple, est le produit d’une collision entre une protoplanète et notre Terre.
(…) Quand une hypothèse heuristique est posée de manière consciente par un scientifique
développant une théorie, elle est normalement désignée comme telle. Par exemple, quand il
développa la théorie de la relativité, Einstein explique que la distance parcourue par un individu
marchant d’un bout à l’autre d’un train est égale à la somme de la distance parcourue par le train et
de la largeur du train. Cependant, il poursuivit en déclarant : « nous verrons plus tard que ce résultat
ne peut être maintenu ; en d’autres termes, la loi que nous venons juste d’écrire n’est pas vérifiée
dans la réalité. Pour le moment, cependant, nous supposerons qu’elle est correcte » (Einstein, 1961,
[1916]). Quand Einstein se débarrassa de cette hypothèse heuristique, il déboucha sur la théorie de
la relativité.
Le plus grand réalisme de la théorie d’Einstein transforma notre compréhension de la réalité
et étendit formidablement les capacités physiques et intellectuelles de notre espèce. Cependant, si
l’on accepte la méthodologie friedmanienne, il faudrait alors affirmer que la théorie d’Einstein est
plus pauvre que celle de Newton, car plus réaliste.
En général, n’en déplaise à Friedman, abandonner une hypothèse heuristique contredite par
les faits conduit, en termes factuels, à une meilleure théorie, et non l’inverse.
Juger les hypothèses
Les théories peuvent alors être évaluées, dans une certaine mesure, au regard de leurs
hypothèses, à condition de disposer d’une taxinomie intelligente de ces hypothèses. Une théorie
peut très bien tirer parti d’hypothèses « irréalistes » si celles-ci énoncent, de manière claire, que
certains facteurs ne sont pas importants pour expliquer les phénomènes en question. Mais la théorie
sera bancale si ces hypothèses définissent le domaine d’application de la théorie et que les
phénomènes du monde réel se trouvent exclus de ce domaine.
Ces hypothèses peuvent être justifiées si elles sont simplement des outils heuristiques,
utilisés pour simplifier le processus de déduction d’une théorie plus générale, mais à condition
qu'une théorie plus générale soit en effet déduite.
Téléchargement