Chapitre 4 : Les rapprochements entre les approches macroéconomiques par l’offre et par la demande. Il y a deux grandes approches qui concerne la même entité qui est le produit national réelle qui partent l’une par la demande globale avec la théorie général de Keynes et une approche par l’offre qui est en fait plus ancienne puisque elle remonte à Turgot et Adam Smith mais qui s’est trouvé rénové récemment, et à l’évidence que se soit en micro ou macro, on devrait disposer un modèle qui permettrait d’intégrer ces deux approches, en micro, le prix se forme entre le rapprochement entre l’offre et la demande et il semblerait logique en macro que le produit national se forme par rapprochement en l’offre globale et la demande globale. Pourtant ce n’est pas le cas même si on pense que les choses sont entrain d’évoluer, pour l’essentiel le rapprochement entre ces deux types d’approches se fait plutôt par l’intégration de certaines considération de l’offre dans un modèle de demande globale. Section 1 : L’intégration d’élément d’offre dans une approche par la demande globale. Cette intégration s’est faite à partir du début des années 60 quand on s’est préoccupé du rôle des effets prix sur la formation du produit national réelle à partir d’un certain montant de la demande globale. En effet si la demande globale augmente de manière importante, elle va déterminer un accroissement du produit national réel mais si cette augmentation de la demande globale entraine aussi une forte hausse de prix, l’augmentation du produit national réel sera réduite et l’essentiel de l’impact de l’accroissement de la demande globale aura été sur les prix. Or le modèle Keynésien répond très mal à cette question qui reste essentiel, en effet l’approche de la théorie général et les principaux développements de la part des keynésiens laissaient entendre qu’il y avait deux situations tout à fait différentes, une situation de sous emplois et tant que ce sous emploi dure alors l’augmentation de la demande globale provoque un accroissement de l’emploi et de la production réelle sans hausse de prix. En revanche quand le seuil de plein emploi est atteint, toute augmentation de la demande globale se traduit par une augmentation des prix sans augmentation du produit réel. Ceci explique la distinction chez Keynes entre l’écart déflationniste et inflationniste. Ce que les keynésiens appelle l’écart déflationniste c’est l’insuffisance de la demande globale qui se traduit par une baisse du produit national et l’écart inflationniste qui traduit l’excès de la demande globale sur le produit de plein emploi sur une hausse de prix. Il y a là une conception du tout ou rien. Il y a une absence de prise en compte de phénomène de l’offre dans leur complexité et on a la conviction qu’il n’est pas utile de s intéresser aux mécanismes de l’offre et que la macro peut rester cantonner par une approche de la demande globale. Le premier choc subit par cette approche et l’établissement de la courbe de Philips qui met en cause ce mécanisme Keynésien du tout ou rien à partir du marché du travail. 1§ : L’établissement de la courbe de Philips. Ce que constate Philips c’est qu’il y a toujours un certain taux de chômage dans l’économie mais contrairement à la thèse Keynésienne qui est implicite, la rémunération des salariés va varier selon le taux de chômage et Philips constate que cette rémunération salariale peut même baiser quand le taux de chômage atteint des niveaux élevé. On a donc une courbe. 1 âge Cette courbe s’établit à travers des données statistiques par les années à l’augmentation des produits agricoles restent intérieur à 2,5%. Si les prix des produits agricoles de plus de 2,5%, la croissance des salaires va être en partie déterminé par cette hausse de prix car les salariés vont demander un rattrapage de pouvoir d’achat et la hausse de salaire ne dépend plus de manière unique du taux de sous emplois. Dans ce cas, le mécanisme de la courbe de Philips se déplace vers le haut. Il intervient alors la croissance annuelle de la productivité qu’il estime à plus de 2%. Le résultat sur le niveau intérieur des prix est que si l’on est en situation de sous emploi de 2,5 %, les salaires augmentent de 2% mais les gains de productivité qui sont en moyenne de 2% font que les prix à la production restent stable et si le taux de chômage atteignait 5,5% on devrait avoir une baisse des prix des produits manufacturés puisque les salaires nominaux n’augmente pas et donc les prix devraient baisser de 2%. On a là la fameuse interprétation de la courbe de Philips, on a l’impression que la courbe de Philips est un menu pour la politique économique permettant d’opter pour la stabilité des prix avec un taux de chômage élevé ou une situation de taux de chômage réduit mais avec une hausse importante des prix. 2§ : La controverse de la courbe de Philips. Le principe même de la courbe a été critiqué et rejeté brutalement par la plupart des Keynésiens qui n’admettait pas la possibilité d’une hausse des salaires en dehors d’une situation de plein emploi. Puis à la réflexion, les keynésiens ont admis quelque chose qui ressemble à la courbe de Philips considérant que cette fonction donnait un peu de souplesse au modèle Keynésien et permettait notamment d’introduire des options de politiques économiques justifiant par exemple un certain taux d’inflation pour favoriser le plein emploi ce qui est devenu une sorte de solution standard de la part des Keynésiens qui souligne d’ailleurs que la hausse de prix qui va accompagner une tendance de plein emploi à toute une série d’avantage notable. Elle permet de réajuster les salaires nominaux de façon modifier les salaires relatifs en faveur des secteurs en expansion alors qu’on ne pouvait pas baisser les salaires nominaux dans les secteurs qui sont en contraction d’effectif car selon la doctrine keynésienne une baisse du salaire nominal n’est jamais accepté par les salariés. Dans le cas d’une hausse des salaires nominaux, il peut y avoir des hausses plus rapides dans les secteurs en expansion et des hausses faibles dans les secteurs en contraction. 2 Par ailleurs, en phase de hausse de prix, les salariés vont demander une hausse de salaire compensatrice et ne tiendront pas tellement compte de l’augmentation de la productivité qui permettrait une augmentation plus forte des salaires ce qui favorisent l’emploi puisque le coût réel du travail est alors sous évalué. Il y a cependant une objection majeur qui est la situation de stagflation, il s’agit d’une situation qui cumule une hausse rapide des prix et un niveau important de sous emploi. A priori une telle situation semble incompatible avec la courbe de Philips si on admet que la hausse des salaires est le résultat d’une réduction de sous emplois, cette hausse des salaires déterminant à son tour la hausse des prix. En réalité cela ne pose aucun problème à la courbe puisqu’elle est juste une anticipation de la hausse des prix qui est général et qui touche les salariés. La courbe de Philips ne fait que se déplacer en fonction des prix anticipés. Vers la fin des années 70, la courbe de Philips est devenu une composante de tous les modèles macroéconomiques et quand un modèle cherche à prévoir ou à expliquer la hausse des salaires, elles utilisent deux composantes, la hausse des salaires s’explique par la hausse des prix et un certain coefficient appliquer au taux de chômage (w = p + a Txcho). L’aspect le plus spectaculaire est l’utilisation de cette courbe dans les modèles des principaux adversaires, les monétaristes de l’école de Milton Friedman qui ont intégré la courbe de Philips dans leur modèle économique. 3§ : L’intégration de la courbe de Philips dans le cadre néo-keynésien et la politique d’action sur les prix. Du point de vue des néo-keynésien on a le modèle IS-LM. Variation des prix en % 3 La hausse des prix s’explique par deux raisons, il y a l’inflation des prix anticipé par les agents économiques puis il y a l’inflation de la demande qui correspond à la pression exercée par la demande globale sur la formation du produit intérieur réel et il faut y ajouter l’inflation du choc qui correspond à une variation du coté de l’offre. L’inflation de choc peut être positive ou négative et peut pousser à une augmentation des prix relativement forte mais peut aussi ramener le prix à un prix inférieur tout est une question de circonstance. P° = p°noyau + p°demande + p°choc. Ce qui est intéressant ce sont les aspects de politique économique. On peut partir d’une situation initiale ou la détermination du produit national. a) rééquilibrage rapide en cas de poussée de la demande : soit un relèvement de la courbe IS exprimant un choc inflationniste ! Il se produit un déplacement de l’équilibre en Y1, avec poussée des prix, le long de la courbe de Phillips H ; mais cette hausse de prix contracte la masse monétaire réelle, avec une rétraction de LM en LM2, ce qui provoque une disparition des tensions inflationnistes, et un retour à Yf, à un niveau de prix certes plus élevé, mais sans apparition d’un noyau d’inflation ! 4 b) un rééquilibrage très lent en cas de contraction de la demande : soit une rétraction de IS, provoquant une baisse du produit et une faible baisse des prix ; le relèvement très limité du niveau de l'encaisse réelle n'entraîne qu'un déplacement lent et progressif de LM : le retour à Yf ne peut se faire spontanément que sur de nombreuses périodes. La dissymétrie dans l’autorégulation résultant de la « courbe de Phillips », justifie le thème keynésien (ici “néo”) : il faut une action de politique économique pour retrouver l’équilibre de plein-emploi qui ne se rétablira pas de lui-même, en cas de contraction. C’est particulièrement nécessaire dans le sens de la contraction. En cas d’insuffisance de la demande globale seule une politique d’action de la demande globale permettra un retour d’équilibre. Il y a une forte implication entre la courbe de Philips et la doctrine traditionnelle des keynésiens. Mais la principale question est l’impact de cette dissymétrie. L’action économique à entreprendre en cas de hausse des prix provoquée initialement par une augmentation de la demande globale. La puissance de l’autorégulation des prix face à une poussée de la demande, est très souvent neutralisée par l’action « validante » de la poussée inflationniste par l’autorité monétaire : elle peut maintenir LM1, grâce au gonflement de l’offre de monnaie nominale, Dès lors l’inflation de noyau s'installe et s’élève de période en période, tant que l’équilibre macro-économique s'établit au-delà du produit potentiel. Cas envisagé : au départ stabilité des prix, survient un “choc” qui déplace la courbe IS de IS1à IS2, l'équilibre du revenu se fait en Y1 et avec une hausse des prix au rythme p°1 ; l'autocorrection par les prix ne se produit pas car la Banque centrale « valide » l'équilibre macroéconomique en maintenant la courbe LM en LM1, c'est à dire qu'elle compense par une offre de monnaie supplémentaire la baisse de sa valeur réelle. a) progression rapide de l'inflation de noyau : Dès lors les agents économiques constatent que l'inflation est durable, ils intègrent à leurs anticipation une inflation de noyau positive, ce qui se traduit par le relèvement de la courbe H. Le maintien du même équilibre macroéconomique entraîne alors une hausse de prix plus forte, donc un relèvement de l'inflation de noyau et de la courbe H. L'économie peut alors entrer assez rapidement dans une inflation à deux chiffres. b) lenteur de la réduction de l’inflation de noyau : Pour lutter contre cette forte inflation en progression rapide, revenir à l'équilibre du produit potentiel ne fit que stabiliser l'inflation de noyau. Or elle est considérée comme trop rapide. La seule solution pour la réduire consiste à faire passer le produit réel en dessous du produit potentiel et de l'y maintenir tant que l'inflation n'est pas suffisamment résorbée. Soit une politique budgétaire d’action sur IS : contraction de IS1 en IS3 (on pourrait aussi agir par LM). Malheureusement une telle politique va se heurter à la dissymétrie de la courbe de Philips, c’est ce que l’on constate. 5 La contraction du produit en Y3 met en jeu la courbe de Phillips (H3) qui ralentit la hausse des prix, passant de p°c à p°1 ; cela va entraîner un abaissement progressif de la courbe de Phillips en H 4, ce qui détermine un rythme de prix plus faible en p°2, qui va être intégré progressivement à l’inflation de noyau provoquant une nouvelle baisse de la courbe de Phillips, H5, etc. Mais le caractère asymétrique de la courbe H, dérivée de la courbe de Phillips, fait que la réduction de l'inflation de noyau est faible. Le retour à la stabilité des prix sera donc très lent et exigera le maintien d'un fort sous-emploi sur de très longues périodes. La hausse des prix est rapidement accélérée par le maintien d’une pression de la demande globale. Donc en quelques années on peut passer d’une inflation quasi nul à une inflation à deux chiffres, en revanche quand il s’agit de revenir d’une inflation de deux chiffres à une inflation quasi nul il faut de 15 à 20 ans car l’inflation du noyau de s’adapte progressivement du fait de l’impact réduit de la contraction du produit national sur le rythme de la hausse des prix. C’est une situation assez étonnante et il y a sur ce point accord entre les monétariste et les keynésiens mais cette conclusion a été contesté. Cette approche a le mérite d’être détaillé sur le plan analytique et ouvre la voix à une première synthèse qui est constitué par l’intégration dans un cadre graphique unique des courbes d’offres et de demandes globales. 4§ : La loi d’Okun. Arthur Okun a été un des principaux conseillé du président Kennedy et est connu pour ses études publiés en 1962 sur l’impact du produit potentiel sur la vie économique. Cette notion de produit potentiel que nous avons utilisé apparaît comme la composante de l’offre à l’intérieur des modèles Keynésiens. En effet ce produit potentiel évolue de manière importante, on peut résumer ces influences essentiellement par la productivité globale des facteurs productions, celle-ci croit plus ou moins rapidement et va devenir un des éléments explicatifs majeur du mouvement macroéconomique. 6 Il y a 3 versions existantes : - - - La version savante : résulte de l’étude au cours des années 1960, du lien entre l’évolution du taux de sous-emploi et le changement du rapport entre le produit réel effectif et le produit potentiel dans l’économie avec cette règle selon laquelle 1% d’augmentation dans le sous-emploi était associés avec 3% de diminution dans le rapport entre le produit national effectif et le produit national potentiel. La deuxième version est connue à travers l’argumentation du gouvernement Kennedy qui est le thème selon lequel en obtenant une réduction de 1 point de sous emploi, on crée une augmentation considérable du produit réel qui va se retrouver redistribué dans l’ensemble de la société et qui va permettre un gain considérable de bien-être à l’intérieur de la société. Il en résulte qu’il fait tout faire pour réduire le sous-emploi non pas pour réduire le chômage mais parce que cela permet un enrichissement global de la société. La troisième version est la plus utilisée, la croissance du produit national entraine par elle-même une réduction du sous emploi, dans ce cas on laisse un peu de coté le rôle du produit potentiel et on met l’accent sur le fait que la croissance est rapide vu que le taux de sous-emploi se trouve réduit. Il y a un lien analytique entre l’approche 1 et 3 proposé par Okun et qui consiste à écrire : Δu = a – bg avec g le taux de croissance et Δu la variation de sous emploi. Si on prend Δu = 0 au cours d’une période, on obtient g = a/b et ce taux de croissance g peut être considéré comme le taux de croissance naturel et on va écrire que g* = a/b, a peut donc s’exprimer comme le taux de croissance naturel multiplié par b (a=g*b) et si on remplace dans la formule initiale => Δu = g*b –gb => Δu = b(g* - g) ou Δu/b = g* - g. Okun considère que b = 1/3 et actuellement b = ½. Le taux de chômage va varier d’un point dans le cas d’Okun quand il y a un écart de 3 point entre le taux de croissance du produit national et le taux de croissance du produit potentiel. La raison pour laquelle ce coefficient est ramené actuellement à ½ c’est le fait que les entreprises qui sont soumises à une pression concurrentielle beaucoup plus forte et souvent au niveau mondial ont été contrainte d’adapter l’emploi de manière plus stricte à leur besoin de production ce qui les amène à augmenter l’emploi lorsqu’elles ont besoin d’accroitre leur production et inversement. La raison de la contraction du coefficient ; ajustement de l’emploi par la production. Il y a un problème avec le coefficient d’aucune qui est sa stabilité, quand on examine l’évolution du produit national réel et qu’on le confronte à l’évolution effective de l’emploi, on constate qu’il y a d’importante différence dans l’impact d’un taux de croissance donné sur l’évolution de l’emploi et du taux de chômage. A priori on a l’impression qu’il y a une instabilité du coefficient d’Okun mais en général on constate une forte variabilité du rythme de croissance de la productivité quand cette croissance de la productivité est forte au cours d’une période, un même taux de croissance va générer une variation du taux de sous emploi très différente de ce que l’on constate quand la progression de la productivité est faible. L’exemple chiffré le plus connu est le contraste du taux aux Etats-Unis entre 1992 et 1993 avec respectivement + 0,6 et – 0, 6 avec un taux de croissance égal dans les deux et cela s’explique par l’évolution de la productivité qui en 1992 a été de + 2,7% et en 1993 de + 0,4 %. Ce qui domine c’est le changement du taux de croissance de la productivité qui peut soit progresser lentement soit accélérer fortement. Ce constat a amené d’ailleurs à évoquer un phénomène de cycle réel fondé sur les changements de rythme de croissance de la productivité. 7 5§ : La formation de l’équilibre macroéconomique selon les courbes AD-AS (agregate demande et agregate save) La possibilité de représenter graphiquement ceci, provient de la courbe de Philips et de la loi d’Okun qui génère une dynamique de l’évolution des prix à partir du changement dans l’évolution du niveau de sous-emploi qui est relié lui-même par la loi d’Okun au niveau du produit réel. En réalité on a une interprétation statique de cette loi qui consiste à affirmer qu’tant donner un niveau du produit potentiel, un niveau plus élevé du produit nationale réel va entrainer une baisse du sous emploi ce qui à travers la loi de Philips va provoquer une hausse du salaire nominal. On voit donc qu’en fonction du niveau du produit réel peut s’établir une courbe évoluant de manière croissante le niveau général des prix à ce produit national réel étant entendu que pour la période le produit potentiel est préfixé et c’est l’écart entre ce produit potentiel et effectif (g* - g) va déterminer le niveau des prix dans l’économie. AS est un mélange d’Okun et Philips. Cette courbe ressemble à la courbe d’offre microéconomique et il y a une similitude car la croissance du cout marginal explique la croissance de courbe d’offre. Ici dans le cadre AS c’est la pression sur les intrants de la production (capital et travail). Si la production est élevée, plus le cout augmente et plus le niveau de prix augmente. En ce qui concerne la courbe AD, il faut faire une construction plus complexe et pour cela on part de la courbe IS. 8 Puis on génère un ensemble de courbe LM avec des prix différent (P3 > P2 > P1). On met l’accent sur un le besoin d’encaisse c'est-à-dire que pour les transactions, les agents économiques ont besoin d’une quantité de monnaie d’autant plus élevé que le niveau des prix et lui-même plus élevé. Or dans ce graphique on a une quantité M de monnaie qui est donnée, donc si le niveau des prix est élevé alors la possibilité de placer la courbe LM se situe à gauche car le niveau du produit national est faible car il y a peu de monnaie. Au contraire si le niveau des prix de ces marchandises est faible alors les droites seront une droite et seront compatible avec un produit national élevé. On peut introduire l’effet d’encaisse réel (richesse) si le niveau des prix s’élève alors la valeur réelle des encaisses détenus par les consommateurs diminue, leur niveau de richesses devient plus faible et sont amenés à faire un effort de reconstitution de leur encaisse réelle et de leur niveau de richesse en accroissant leur épargne, épargne dont le produit s’ajoutera au montant de leur encaisses réelles pour établir le niveau de richesse antérieur donc il est certain que la courbe IS va se déplacer sous l’influence des prix. D’où le graphique en Y.P Ce graphique explique la liaison entre le niveau des prix et le niveau du produit national. Donc on va reporte les deux courbes AD et AS et on va obtenir un produit national d’équilibre et un niveau de prix d’équilibre. 9 Cette approche permet de visualiser l’existence d’une structure d’offre globale dans l’économie qui influence le niveau des prix et qui donc présente une sorte de résistance au travers de la demande en montrant que si une politique économique monétaire ou budgétaire tend à déplacer sur la droite (augmenter la demande globale) cela va provoquer à cause des conditions de l’offre une montée des prix dans l’économie qui peut dégénérer en une pression inflationniste de plus en plus forte. Cette possibilité était déjà présente dans l’approche néokeynésienne mais à travers la combinaison de deux graphiques différents, ici au contraire cette possibilité peut être visualisée directement dans un graphique ou l’approche par l’offre est explicitée au même titre que l’approche par la demande. On passe ici d’une manière un peu forcé d’une démarche dynamique fondé que les rythme de croissance à une présentation essentiellement statique correspondant à l’équilibre d’une période et l’intérêt de cette présentation est donc limité, son principal mérite étant de montré qu’il est possible de présenter une approche macroéconomique qui prenne en compte simultanément le coté de l’offre et le coté de la demande. Le prix à payer est une simplification considérable dont une qui est marquée par le fait d’adopter une forme simple pour la droite AS alors que dans le cadre d’une analyse plus fine des tensions inflationniste on aurait plus une courbe qu’une droite. Il y a une autre approche synthétique des courbes de Philips et d’Okun qui est le concept de NAIRU qui est le taux de sous-emploi ne provoque pas une accélération de l’inflation. Ce concept reflète sur un plan dynamique l’association de ces deux lois en mettant l’accent sur le fait que dans toute économique il existe un taux de sous emploi qui est suffisante pour éviter des tensions sur les salaires entrainant une hausse de plus en plus accentué des prix. L’idée est que si le produit réel progresse plu vite que le produit potentiel, il y a une réduction d’autre emploi qui conformément à la loi de Philips provoque la hausse des salaires nominaux qui se répercute sur le niveau des prix avec un effet de rattrapage sur le niveau des salaires qui tend à accélérer de plus en plus la hausse des prix conformément aux mécanismes de l’inflation de noyau. Cette approche associative du coté de l’offre et du coté de la demande apparaît comme assez restreinte sur le plan de l’analyse puisqu’elle n’est évoqué au sujet de l’augmentation plus ou moins rapide des prix et il s’agit donc d’une augmentation partielle de ces deux approches, or depuis la fin du 20ème siècle, il y a une approche beaucoup plus ambitieuse qui n’est pas encore achevé. Section 2 : Modèle d’équilibre général de l’offre et de la demande macroéconomique. Ces modèles qui sont en croissance continu sont regroupés sous l’appellation New Keynésian-DSGE. Le principe de ce modèle est simple, on repart d’un constat qui est vrai en micro et en macro, les comportements d’offre et de demande résulte fondamentalement de l’attitude prise par des agents économiques qui sont à la recherche de la situation la plus favorable possible compte tenu des contraintes qu’ils subissent et il s’agit donc de dérivé l’offre et la demande globale du comportement même des agents économiques. La différence avec les modèles macroéconomiques antérieurs est qu’on essaye de relier les grandes fonctions d’offres et de demande à ces comportements alors que dans l’approche macroéconomique habituelle, on part sur ces grandes fonctions, on sait bien qu’il s’agit de résultat de comportement d’agent mais il n’est pas explicité. 10 Il s’agit d’une réintroduction en macroéconomie du comportement d’agent qui est en principe étudié plutôt en microéconomie mais qui en réalité est présente dans de nombreuses études macroéconomique depuis longtemps. 1§ : Les modèles à comportement d’agents en macroéconomie. Le premier qui a émis cette hypothèse est Ragnar Frisch (prix Nobel d’économie en 1969) et il est connu pour avoir dans les années 1930 fondé le terme macrodynamique. Dès 1950, Ragnar Frisch dans un article attire l’attention sur le fait que maintenant que la reconstruction s’achève en Europe, les modèles Keynésiens utilisé atteignent leur limite car les agents consommateurs peuvent à nouveau faire des choix et non plus une consommation contrainte par le revenu. Il pense qu’il est nécessaire de réintroduire des modèles à maximisation d’utilité en remplacement de la fonction de consommation keynésienne beaucoup trop simpliste de son point de vue. Il y a cependant d’autres approches intérieur que l’on peut évoquer notamment celle proposée en 1695 par Boisguilbert qui est de présenter une explication de l’économie française sous Louis XIV fondé sur l’attitude prise par les agents économiques face à la fiscalité existante notamment dans les campagnes qui se résument essentiellement par la « taille arbitraire » c'est-à-dire le fait que dans les campagnes l’impôt direct est imposé de manière arbitraire par des personnes chargées d’affecter ces impôts. Ce qui détermine le chiffrage c’est les apparences de richesse, la consommation apparente, l’activité économique apparente. Il est pratiquement impossible de discuter le montant de l’impôt et le résultat est que les agents producteurs et consommateurs des campagnes sont amenés à réduire leur activité économique apparente à ne pas investir et à limiter également leur consommation en tant qu’agent rationnel car s’il développait leur production alors il subirait le risque de voir l’impôt accrus au point de supprimer tout avantage à cette activité supplémentaire. Vauban va souligner que se sont des agents rationnels qui prennent cette décision. Turgot n’a pas encore séparé la macroéconomie uniquement sur l’offre et il y a donc un mélange de considération d’offre et de demande de la part de ces deux auteurs mais Boisguilbert pense que le revenu et la consommation sont une seule et même chose. Tout en reconnaissant cette approche Vauban souligne l’importance des comportements d’offre c'est-à-dire le fait que les agents cessaient d’investir et le résultat était tout à fait décisif dans la possibilité de redressement économique qui suivrait une meilleur politique fiscale. 2§ : L’approche par les cycles réels. Kylland et Prescott, depuis la seconde guerre mondiale pensaient que le cycle économique aux Etats-Unis résulte principalement d’un changement au hasard dans le taux de croissance de la productivité pour les entreprises. Le mécanisme serait le suivant : quand la productivité globale croit plus rapidement que sa tendance moyenne ceci génère un mécanisme de poussée cyclique et inversement quand la productivité globale croit moins vite que sa tendance, ceci provoque un phénomène de ralentissement ou de récession économique. Ce rapprochement économétrique entre ces deux variables ne sont pas tout, il reste à expliquer le cadre dans le quel on va expliquer ce processus et la proposition de ces deux auteurs et d’envisagés l’économie américaine d’après guerre comme une économie d’équilibre générale de type Walrasien ou le vecteur prix s’adapte en permanence. A priori, un tel modèle ne semble pas compatible avec un mécanisme cyclique car il se maintient en permanence d’état d’équilibre. En revanche on peut introduire un mécanisme cyclique par les chocs qui trouve 11 naissances dans les nouvelles techniques qui permet d’augmenter les productions avec les mêmes quantités de matières qui ouvre de nouveaux marchés. Le comportement initial est celui des entreprises faces aux chocs positif de productivité qui tend à s’accroitre à un moment donné plus vite que la moyenne. Les entreprises qui cherchent à maximiser leur produit vont donc engendrer plus de travail et de capital matériel pour accroitre la production, l’emploi s’accroit ainsi que l’investissement ce qui aboutit à une croissance de la consommation est donc un trimestre initial d’augmentation de la productivité globale va entrainer un élan économique qui va durer sur plusieurs trimestre successifs. A l’inverse, un ralentissement de la productivité va entrainer moins d’investissement, moins d’emplois, moins de consommation et donc un ralentissement économique généraliser sur plusieurs trimestres. C’est pourquoi Charles Plauser propose le cycle réel des affaires pour exprimer le fait que l’origine de cette fluctuation économique est du coté de l’offre c'est-à-dire du coté des variations de la productivité globale qui est l’élément dynamique de l’offre globale. Cette approche a entrainée un certain nombre de discussions. La particularité la plus notable c’est que pour les auteurs, l’économie américaine semble donnée une réponse optimale aux différents chocs de productivité, du moins depuis la seconde guerre mondiale, ce qui laisse penser que les politiques monétaires ou budgétaires sont inutiles et inefficace puisque la réponse spontanée de l’économie suffit à assurer le retour progressif à l’équilibre. Robert Lukas remarque si l’économie américaine est stable depuis la seconde guerre mondiale, on doit noter que l’offre de monnaie elle-même se comporte également de manière tout à fait stable et qu’il y a sans doute un lien de cause à effet entre cette stabilité de l’offre de monnaie assurée par la politique monétaire et la stabilité de l’économie américaine car avant la seconde guerre mondiale on avait une forte variabilité de l’offre de monnaie et du produit national. Les conclusions des théoriciens du cycle réel en termes de politique économique semblent contestables car ils ne peuvent pas discriminer entre les phénomènes d’équilibres spontanés et les phénomènes provoqués par une politique monétaire active. Une étude approfondie de la façon de rendre compte des comportements de consommateurs et des comportements d’entreprises face à des mouvements de la productivité globale mais les méthodes mathématiques mise au point sont aisément mise au point dans un autre cadre. Ces modèles représente une synthèse de l’approche de l’offre et de la demande et son avant tout des explications des fluctuations à court terme du produit national et qui associe une approche d’équilibre général c'est-à-dire le comportement d’agent face aux données de marchés et une approche d’origine Keynésienne qui met l’accent sur la relative rigidité des prix ou du moins de certains prix essentiel dans l’économie. En effet, à long terme, ces modèles admettent que la solution qui va s’imposer est celle de l’équilibre général Walrasien mais à court terme, le fait que le vecteur prix soit « visqueux » (sticky price) fait que l’économie se comporte de manière Keynésienne mais dans un cadre particulier car il y a association d’offre et de demande globale même si la demande globale est en principe déterminante de la formation du produit. On va étudier la réaction d’offre et de demande de la part des consommateurs face à ces prix qui ne sont en général pas des prix d’équilibre, et ces consommateurs ont un comportement déterminé par une fonction d’utilité mais qui est inter temporel ou figure l’utilité des biens consommés dans la période mais aussi des biens consommés dans l’avenir, c’est ce qui rend ces modèles dynamiques et les consommateurs cherchent à maximiser cette utilité sous contrainte budgétaire. 12 Les entreprises sont en générale du même type, c'est-à-dire qu’elle cherche à maximiser leur profit mais sont dans le cadre Walrasien qui sont dans le cadre d’une concurrence imparfaite qui leur permet de fixer des prix qu’elles vont réviser de manière périodique et non pas de manière continue. Et c’est ce décalage qui est à l’origine du caractère visqueux du vecteur prix. Les retards d’ajustements des prix ont des raisons diverses comme celle du menu (modifiés la carte souvent mais pas tout le temps). Mais on privilégie plutôt le pouvoir de marché que possède cette entreprise qui les amène à fixer les prix qui sont en général au dessus du coût marginale et ne les révises que quand les couts marginal est trop important. Quoiqu’il en soit, les prix de marché ne sont pas des prix d’équilibre et que pourtant ces transactions ont lieu à ces prix : systèmes de fausses transactions (en dehors du prix d’équilibre du marché). Il y aura des offres et des demandes qui ne seront pas cohérentes avec l’équilibre et il y aura soit des demandes ou des offres excessives qui vont aboutir à des récession ou à des situations de surchauffe économique dès lors, la politique monétaire qui st favorisé par cette approche mais aussi la politique budgétaire reprennent toutes leurs importances puisqu’elles peuvent jouer un rôle correcteur en compensant les déséquilibres manifestés en particulier la baisse du taux d’intérêt peut relance la demande des ménages et des entreprises et ainsi compensés le fait que le vecteur prix dans son état actuel provoquerait un excès d’offre sur la demande. On peut envisager d’ajouter des agents économiques complémentaires comme une autorité publique qui va réagir en terme de budget à l’évolution des recettes et des dépenses qui résultent de la conjoncture et surtout on essaye d’insérer une banque centrale qui est censé réagir spontanément au double déséquilibre qu’elle constate en terme d’inflation et de sous emploi, on peut proposer des modèles de réaction de banque centrale pour compenser. Contrairement au modèle de cycle réel, les politiques monétaires et budgétaires deviennent essentielles à la stabilité de l’ensemble et on comprend par là pourquoi les banques centrales dans un mouvement d’aide à la science ont financées massivement la création de ces modèles statistiques qui permettait de résoudre le divorce entre la science économique et la politique économique qu’avait crée l’approche par les cycles réelles qui assurait au nom de la science que la politique monétaire était inutile. Les simulations faites sont assez raisonnable et ces modèles peuvent rendre compte aussi bien que d’autres des phénomènes de situation cycliques et ces modèles ont comme avantage d’apporter une sorte de grande synthèse entre les approches par l’offre globale et par la demande globale. 3§ : L’accélérateur financier de Ben Bemanke et Mark Gertler. A partir des années 30, les mécanismes financiers semblent être les principaux responsables de la transformation de ces crises en dépression grave. Il n’y a pas tellement d’études réelles entre les situations financières et les situations réelles. Ils ont cherchés un élément de liaison qui évolue tout au long du cycle financier qui évolue au cours du cycle économique, en effet dans la période de développement de croissance économique rapide, les agents économiques ont tendance à prendre des engagements de plus en plus important en se portant emprunteur pour réaliser des opérations à plus grandes échelles et leurs situations financières se détériorent donc progressivement, les établissement financiers n’attache d’abord pas de grandes importances à l’endettement mais dès que commence à apparaître un retournement cycliques, ces établissement financiers s’inquiètent de la situation dans laquelle on est arrivée et réduisent les crédit c’est la fuite vers 13 la qualité qui se traduit par une réduction de la capacité d’offre de l’économie et une partie de la demande globale disparaît car elle était financée à crédit. C’est ce qui explique que de petits chocs peuvent générer des grands cycles et c’est pour désigner des phénomènes que ces deux auteurs ont proposé les accélérateurs financiers, mais cela tire plutôt vers le négatif. Il y a en fait une multitude d’études menées par ces auteurs, on a reproché ces auteurs d’avoir cru que le domaine pré-immobilier était en dehors de ce phénomène car l’immobilier semblait représenter un actif plus stable que les investissements économiques ce qui les aurait amenés à sous-estimer l’ampleur de la crise issue des sub-primes. Le mécanisme des accélérateurs financiers est généralement intégrés au modèle DSGE et fait traditionnellement parti du mécanisme de fluctuations quand on introduit dans ces modèles des agents bancaires qui vont avoir un comportement conforme à l’accélérateur financier donc qui auront tendance à restreindre quand il y a des phénomènes de retournement cycliques. Ses travaux se sont révélés utiles pour la crise des sub-primes et d’aide à refinancer les banques. Dans le modèle DSGE c’est le taux d’intérêt qui est la variable stratégique et non pas la masse monétaire. 14