Chapitre 4 : Les rapprochements entre les approches

publicité
Chapitre 4 : Les rapprochements entre les approches
macroéconomiques par l’offre et par la demande.
Il y a deux grandes approches qui concerne la même entité qui est le produit national
réelle qui partent l’une par la demande globale avec la théorie général de Keynes et une
approche par l’offre qui est en fait plus ancienne puisque elle remonte à Turgot et Adam
Smith mais qui s’est trouvé rénové récemment, et à l’évidence que se soit en micro ou macro,
on devrait disposer un modèle qui permettrait d’intégrer ces deux approches, en micro, le prix
se forme entre le rapprochement entre l’offre et la demande et il semblerait logique en macro
que le produit national se forme par rapprochement en l’offre globale et la demande globale.
Pourtant ce n’est pas le cas même si on pense que les choses sont entrain d’évoluer, pour
l’essentiel le rapprochement entre ces deux types d’approches se fait plutôt par l’intégration
de certaines considération de l’offre dans un modèle de demande globale.
Section 1 : L’intégration d’élément d’offre dans une approche par la demande
globale.
Cette intégration s’est faite à partir du début des années 60 quand on s’est préoccupé
du rôle des effets prix sur la formation du produit national réelle à partir d’un certain montant
de la demande globale. En effet si la demande globale augmente de manière importante, elle
va déterminer un accroissement du produit national réel mais si cette augmentation de la
demande globale entraine aussi une forte hausse de prix, l’augmentation du produit national
réel sera réduite et l’essentiel de l’impact de l’accroissement de la demande globale aura été
sur les prix. Or le modèle Keynésien répond très mal à cette question qui reste essentiel, en
effet l’approche de la théorie général et les principaux développements de la part des
keynésiens laissaient entendre qu’il y avait deux situations tout à fait différentes, une situation
de sous emplois et tant que ce sous emploi dure alors l’augmentation de la demande globale
provoque un accroissement de l’emploi et de la production réelle sans hausse de prix. En
revanche quand le seuil de plein emploi est atteint, toute augmentation de la demande globale
se traduit par une augmentation des prix sans augmentation du produit réel. Ceci explique la
distinction chez Keynes entre l’écart déflationniste et inflationniste. Ce que les keynésiens
appelle l’écart déflationniste c’est l’insuffisance de la demande globale qui se traduit par une
baisse du produit national et l’écart inflationniste qui traduit l’excès de la demande globale sur
le produit de plein emploi sur une hausse de prix. Il y a là une conception du tout ou rien. Il y
a une absence de prise en compte de phénomène de l’offre dans leur complexité et on a la
conviction qu’il n’est pas utile de s intéresser aux mécanismes de l’offre et que la macro peut
rester cantonner par une approche de la demande globale.
Le premier choc subit par cette approche et l’établissement de la courbe de Philips qui
met en cause ce mécanisme Keynésien du tout ou rien à partir du marché du travail.
1§ : L’établissement de la courbe de Philips.
Ce que constate Philips c’est qu’il y a toujours un certain taux de chômage dans
l’économie mais contrairement à la thèse Keynésienne qui est implicite, la rémunération des
salariés va varier selon le taux de chômage et Philips constate que cette rémunération salariale
peut même baiser quand le taux de chômage atteint des niveaux élevé. On a donc une courbe.
1
âge
Cette courbe s’établit à travers des données statistiques par les années à
l’augmentation des produits agricoles restent intérieur à 2,5%.
Si les prix des produits agricoles de plus de 2,5%, la croissance des salaires va être en
partie déterminé par cette hausse de prix car les salariés vont demander un rattrapage de
pouvoir d’achat et la hausse de salaire ne dépend plus de manière unique du taux de sous
emplois. Dans ce cas, le mécanisme de la courbe de Philips se déplace vers le haut. Il
intervient alors la croissance annuelle de la productivité qu’il estime à plus de 2%. Le résultat
sur le niveau intérieur des prix est que si l’on est en situation de sous emploi de 2,5 %, les
salaires augmentent de 2% mais les gains de productivité qui sont en moyenne de 2% font que
les prix à la production restent stable et si le taux de chômage atteignait 5,5% on devrait avoir
une baisse des prix des produits manufacturés puisque les salaires nominaux n’augmente pas
et donc les prix devraient baisser de 2%. On a là la fameuse interprétation de la courbe de
Philips, on a l’impression que la courbe de Philips est un menu pour la politique économique
permettant d’opter pour la stabilité des prix avec un taux de chômage élevé ou une situation
de taux de chômage réduit mais avec une hausse importante des prix.
2§ : La controverse de la courbe de Philips.
Le principe même de la courbe a été critiqué et rejeté brutalement par la plupart des
Keynésiens qui n’admettait pas la possibilité d’une hausse des salaires en dehors d’une
situation de plein emploi. Puis à la réflexion, les keynésiens ont admis quelque chose qui
ressemble à la courbe de Philips considérant que cette fonction donnait un peu de souplesse au
modèle Keynésien et permettait notamment d’introduire des options de politiques
économiques justifiant par exemple un certain taux d’inflation pour favoriser le plein emploi
ce qui est devenu une sorte de solution standard de la part des Keynésiens qui souligne
d’ailleurs que la hausse de prix qui va accompagner une tendance de plein emploi à toute une
série d’avantage notable. Elle permet de réajuster les salaires nominaux de façon modifier les
salaires relatifs en faveur des secteurs en expansion alors qu’on ne pouvait pas baisser les
salaires nominaux dans les secteurs qui sont en contraction d’effectif car selon la doctrine
keynésienne une baisse du salaire nominal n’est jamais accepté par les salariés. Dans le cas
d’une hausse des salaires nominaux, il peut y avoir des hausses plus rapides dans les secteurs
en expansion et des hausses faibles dans les secteurs en contraction.
2
Par ailleurs, en phase de hausse de prix, les salariés vont demander une hausse de
salaire compensatrice et ne tiendront pas tellement compte de l’augmentation de la
productivité qui permettrait une augmentation plus forte des salaires ce qui favorisent
l’emploi puisque le coût réel du travail est alors sous évalué.
Il y a cependant une objection majeur qui est la situation de stagflation, il s’agit d’une
situation qui cumule une hausse rapide des prix et un niveau important de sous emploi. A
priori une telle situation semble incompatible avec la courbe de Philips si on admet que la
hausse des salaires est le résultat d’une réduction de sous emplois, cette hausse des salaires
déterminant à son tour la hausse des prix. En réalité cela ne pose aucun problème à la courbe
puisqu’elle est juste une anticipation de la hausse des prix qui est général et qui touche les
salariés.
La courbe de Philips ne fait que se déplacer en fonction des prix anticipés. Vers la fin
des années 70, la courbe de Philips est devenu une composante de tous les modèles
macroéconomiques et quand un modèle cherche à prévoir ou à expliquer la hausse des
salaires, elles utilisent deux composantes, la hausse des salaires s’explique par la hausse des
prix et un certain coefficient appliquer au taux de chômage (w = p + a Txcho). L’aspect le
plus spectaculaire est l’utilisation de cette courbe dans les modèles des principaux adversaires,
les monétaristes de l’école de Milton Friedman qui ont intégré la courbe de Philips dans leur
modèle économique.
3§ : L’intégration de la courbe de Philips dans le cadre néo-keynésien et la politique d’action
sur les prix.
Du point de vue des néo-keynésien on a le modèle IS-LM.
Variation des prix en %
3
La hausse des prix s’explique par deux raisons, il y a l’inflation des prix anticipé par
les agents économiques puis il y a l’inflation de la demande qui correspond à la pression
exercée par la demande globale sur la formation du produit intérieur réel et il faut y ajouter
l’inflation du choc qui correspond à une variation du coté de l’offre. L’inflation de choc peut
être positive ou négative et peut pousser à une augmentation des prix relativement forte mais
peut aussi ramener le prix à un prix inférieur tout est une question de circonstance.
P° = p°noyau + p°demande + p°choc.
Ce qui est intéressant ce sont les aspects de politique économique. On peut partir d’une
situation initiale ou la détermination du produit national.
a) rééquilibrage rapide en cas de poussée de la demande : soit un relèvement de la courbe IS
exprimant un choc inflationniste ! Il se produit un déplacement de l’équilibre en Y1, avec
poussée des prix, le long de la courbe de Phillips H ; mais cette hausse de prix contracte la
masse monétaire réelle, avec une rétraction de LM en LM2, ce qui provoque une disparition
des tensions inflationnistes, et un retour à Yf, à un niveau de prix certes plus élevé, mais sans
apparition d’un noyau d’inflation !
4
b) un rééquilibrage très lent en cas de contraction de la demande : soit une rétraction de IS,
provoquant une baisse du produit et une faible baisse des prix ; le relèvement très limité du
niveau de l'encaisse réelle n'entraîne qu'un déplacement lent et progressif de LM : le retour à
Yf ne peut se faire spontanément que sur de nombreuses périodes.
La dissymétrie dans l’autorégulation résultant de la « courbe de Phillips », justifie le
thème keynésien (ici “néo”) : il faut une action de politique économique pour retrouver
l’équilibre de plein-emploi qui ne se rétablira pas de lui-même, en cas de contraction. C’est
particulièrement nécessaire dans le sens de la contraction.
En cas d’insuffisance de la demande globale seule une politique d’action de la
demande globale permettra un retour d’équilibre. Il y a une forte implication entre la courbe
de Philips et la doctrine traditionnelle des keynésiens. Mais la principale question est l’impact
de cette dissymétrie. L’action économique à entreprendre en cas de hausse des prix provoquée
initialement par une augmentation de la demande globale.
La puissance de l’autorégulation des prix face à une poussée de la demande, est très
souvent neutralisée par l’action « validante » de la poussée inflationniste par l’autorité
monétaire : elle peut maintenir LM1, grâce au gonflement de l’offre de monnaie nominale,
Dès lors l’inflation de noyau s'installe et s’élève de période en période, tant que l’équilibre
macro-économique s'établit au-delà du produit potentiel.
Cas envisagé : au départ stabilité des prix, survient un “choc” qui déplace la courbe IS
de IS1à IS2, l'équilibre du revenu se fait en Y1 et avec une hausse des prix au rythme p°1 ;
l'autocorrection par les prix ne se produit pas car la Banque centrale « valide » l'équilibre
macroéconomique en maintenant la courbe LM en LM1, c'est à dire qu'elle compense par une
offre de monnaie supplémentaire la baisse de sa valeur réelle.
a) progression rapide de l'inflation de noyau :
Dès lors les agents économiques constatent que l'inflation est durable, ils intègrent à leurs
anticipation une inflation de noyau positive, ce qui se traduit par le relèvement de la courbe H.
Le maintien du même équilibre macroéconomique entraîne alors une hausse de prix plus
forte, donc un relèvement de l'inflation de noyau et de la courbe H. L'économie peut alors
entrer assez rapidement dans une inflation à deux chiffres.
b) lenteur de la réduction de l’inflation de noyau :
Pour lutter contre cette forte inflation en progression rapide, revenir à l'équilibre du produit
potentiel ne fit que stabiliser l'inflation de noyau. Or elle est considérée comme trop rapide.
La seule solution pour la réduire consiste à faire passer le produit réel en dessous du produit
potentiel et de l'y maintenir tant que l'inflation n'est pas suffisamment résorbée. Soit une
politique budgétaire d’action sur IS : contraction de IS1 en IS3 (on pourrait aussi agir par
LM).
Malheureusement une telle politique va se heurter à la dissymétrie de la courbe de Philips,
c’est ce que l’on constate.
5
La contraction du produit en Y3 met en jeu la courbe de Phillips (H3) qui ralentit la
hausse des prix, passant de p°c à p°1 ; cela va entraîner un abaissement progressif de la
courbe de Phillips en H 4, ce qui détermine un rythme de prix plus faible en p°2, qui va être
intégré progressivement à l’inflation de noyau provoquant une nouvelle baisse de la courbe de
Phillips, H5, etc. Mais le caractère asymétrique de la courbe H, dérivée de la courbe de
Phillips, fait que la réduction de l'inflation de noyau est faible. Le retour à la stabilité des prix
sera donc très lent et exigera le maintien d'un fort sous-emploi sur de très longues périodes.
La hausse des prix est rapidement accélérée par le maintien d’une pression de la
demande globale. Donc en quelques années on peut passer d’une inflation quasi nul à une
inflation à deux chiffres, en revanche quand il s’agit de revenir d’une inflation de deux
chiffres à une inflation quasi nul il faut de 15 à 20 ans car l’inflation du noyau de s’adapte
progressivement du fait de l’impact réduit de la contraction du produit national sur le rythme
de la hausse des prix. C’est une situation assez étonnante et il y a sur ce point accord entre les
monétariste et les keynésiens mais cette conclusion a été contesté.
Cette approche a le mérite d’être détaillé sur le plan analytique et ouvre la voix à une
première synthèse qui est constitué par l’intégration dans un cadre graphique unique des
courbes d’offres et de demandes globales.
4§ : La loi d’Okun.
Arthur Okun a été un des principaux conseillé du président Kennedy et est connu pour
ses études publiés en 1962 sur l’impact du produit potentiel sur la vie économique. Cette
notion de produit potentiel que nous avons utilisé apparaît comme la composante de l’offre à
l’intérieur des modèles Keynésiens. En effet ce produit potentiel évolue de manière
importante, on peut résumer ces influences essentiellement par la productivité globale des
facteurs productions, celle-ci croit plus ou moins rapidement et va devenir un des éléments
explicatifs majeur du mouvement macroéconomique.
6
Il y a 3 versions existantes :
-
-
-
La version savante : résulte de l’étude au cours des années 1960, du lien entre
l’évolution du taux de sous-emploi et le changement du rapport entre le produit réel
effectif et le produit potentiel dans l’économie avec cette règle selon laquelle 1%
d’augmentation dans le sous-emploi était associés avec 3% de diminution dans le
rapport entre le produit national effectif et le produit national potentiel.
La deuxième version est connue à travers l’argumentation du gouvernement Kennedy
qui est le thème selon lequel en obtenant une réduction de 1 point de sous emploi, on
crée une augmentation considérable du produit réel qui va se retrouver redistribué
dans l’ensemble de la société et qui va permettre un gain considérable de bien-être à
l’intérieur de la société. Il en résulte qu’il fait tout faire pour réduire le sous-emploi
non pas pour réduire le chômage mais parce que cela permet un enrichissement global
de la société.
La troisième version est la plus utilisée, la croissance du produit national entraine par
elle-même une réduction du sous emploi, dans ce cas on laisse un peu de coté le rôle
du produit potentiel et on met l’accent sur le fait que la croissance est rapide vu que le
taux de sous-emploi se trouve réduit.
Il y a un lien analytique entre l’approche 1 et 3 proposé par Okun et qui consiste à écrire : Δu
= a – bg avec g le taux de croissance et Δu la variation de sous emploi. Si on prend Δu = 0 au
cours d’une période, on obtient g = a/b et ce taux de croissance g peut être considéré comme
le taux de croissance naturel et on va écrire que g* = a/b, a peut donc s’exprimer comme le
taux de croissance naturel multiplié par b (a=g*b) et si on remplace dans la formule initiale
=> Δu = g*b –gb => Δu = b(g* - g) ou Δu/b = g* - g. Okun considère que b = 1/3 et
actuellement b = ½.
Le taux de chômage va varier d’un point dans le cas d’Okun quand il y a un écart de 3 point
entre le taux de croissance du produit national et le taux de croissance du produit potentiel. La
raison pour laquelle ce coefficient est ramené actuellement à ½ c’est le fait que les entreprises
qui sont soumises à une pression concurrentielle beaucoup plus forte et souvent au niveau
mondial ont été contrainte d’adapter l’emploi de manière plus stricte à leur besoin de
production ce qui les amène à augmenter l’emploi lorsqu’elles ont besoin d’accroitre leur
production et inversement. La raison de la contraction du coefficient ; ajustement de l’emploi
par la production.
Il y a un problème avec le coefficient d’aucune qui est sa stabilité, quand on examine
l’évolution du produit national réel et qu’on le confronte à l’évolution effective de l’emploi,
on constate qu’il y a d’importante différence dans l’impact d’un taux de croissance donné sur
l’évolution de l’emploi et du taux de chômage. A priori on a l’impression qu’il y a une
instabilité du coefficient d’Okun mais en général on constate une forte variabilité du rythme
de croissance de la productivité quand cette croissance de la productivité est forte au cours
d’une période, un même taux de croissance va générer une variation du taux de sous emploi
très différente de ce que l’on constate quand la progression de la productivité est faible.
L’exemple chiffré le plus connu est le contraste du taux aux Etats-Unis entre 1992 et 1993
avec respectivement + 0,6 et – 0, 6 avec un taux de croissance égal dans les deux et cela
s’explique par l’évolution de la productivité qui en 1992 a été de + 2,7% et en 1993 de + 0,4
%. Ce qui domine c’est le changement du taux de croissance de la productivité qui peut soit
progresser lentement soit accélérer fortement. Ce constat a amené d’ailleurs à évoquer un
phénomène de cycle réel fondé sur les changements de rythme de croissance de la
productivité.
7
5§ : La formation de l’équilibre macroéconomique selon les courbes AD-AS (agregate
demande et agregate save)
La possibilité de représenter graphiquement ceci, provient de la courbe de Philips et de
la loi d’Okun qui génère une dynamique de l’évolution des prix à partir du changement dans
l’évolution du niveau de sous-emploi qui est relié lui-même par la loi d’Okun au niveau du
produit réel. En réalité on a une interprétation statique de cette loi qui consiste à affirmer
qu’tant donner un niveau du produit potentiel, un niveau plus élevé du produit nationale réel
va entrainer une baisse du sous emploi ce qui à travers la loi de Philips va provoquer une
hausse du salaire nominal. On voit donc qu’en fonction du niveau du produit réel peut
s’établir une courbe évoluant de manière croissante le niveau général des prix à ce produit
national réel étant entendu que pour la période le produit potentiel est préfixé et c’est l’écart
entre ce produit potentiel et effectif (g* - g) va déterminer le niveau des prix dans l’économie.
AS est un mélange d’Okun et Philips. Cette courbe ressemble à la courbe d’offre
microéconomique et il y a une similitude car la croissance du cout marginal explique la
croissance de courbe d’offre. Ici dans le cadre AS c’est la pression sur les intrants de la
production (capital et travail). Si la production est élevée, plus le cout augmente et plus le
niveau de prix augmente.
En ce qui concerne la courbe AD, il faut faire une construction plus complexe et pour cela on
part de la courbe IS.
8
Puis on génère un ensemble de courbe LM avec des prix différent (P3 > P2 > P1). On
met l’accent sur un le besoin d’encaisse c'est-à-dire que pour les transactions, les agents
économiques ont besoin d’une quantité de monnaie d’autant plus élevé que le niveau des prix
et lui-même plus élevé. Or dans ce graphique on a une quantité M de monnaie qui est donnée,
donc si le niveau des prix est élevé alors la possibilité de placer la courbe LM se situe à
gauche car le niveau du produit national est faible car il y a peu de monnaie. Au contraire si le
niveau des prix de ces marchandises est faible alors les droites seront une droite et seront
compatible avec un produit national élevé.
On peut introduire l’effet d’encaisse réel (richesse) si le niveau des prix s’élève alors
la valeur réelle des encaisses détenus par les consommateurs diminue, leur niveau de richesses
devient plus faible et sont amenés à faire un effort de reconstitution de leur encaisse réelle et
de leur niveau de richesse en accroissant leur épargne, épargne dont le produit s’ajoutera au
montant de leur encaisses réelles pour établir le niveau de richesse antérieur donc il est certain
que la courbe IS va se déplacer sous l’influence des prix.
D’où le graphique en Y.P
Ce graphique explique la liaison entre le niveau des prix et le niveau du produit national.
Donc on va reporte les deux courbes AD et AS et on va obtenir un produit national d’équilibre
et un niveau de prix d’équilibre.
9
Cette approche permet de visualiser l’existence d’une structure d’offre globale dans
l’économie qui influence le niveau des prix et qui donc présente une sorte de résistance au
travers de la demande en montrant que si une politique économique monétaire ou budgétaire
tend à déplacer sur la droite (augmenter la demande globale) cela va provoquer à cause des
conditions de l’offre une montée des prix dans l’économie qui peut dégénérer en une pression
inflationniste de plus en plus forte. Cette possibilité était déjà présente dans l’approche néokeynésienne mais à travers la combinaison de deux graphiques différents, ici au contraire
cette possibilité peut être visualisée directement dans un graphique ou l’approche par l’offre
est explicitée au même titre que l’approche par la demande.
On passe ici d’une manière un peu forcé d’une démarche dynamique fondé que les
rythme de croissance à une présentation essentiellement statique correspondant à l’équilibre
d’une période et l’intérêt de cette présentation est donc limité, son principal mérite étant de
montré qu’il est possible de présenter une approche macroéconomique qui prenne en compte
simultanément le coté de l’offre et le coté de la demande. Le prix à payer est une
simplification considérable dont une qui est marquée par le fait d’adopter une forme simple
pour la droite AS alors que dans le cadre d’une analyse plus fine des tensions inflationniste on
aurait plus une courbe qu’une droite.
Il y a une autre approche synthétique des courbes de Philips et d’Okun qui est le
concept de NAIRU qui est le taux de sous-emploi ne provoque pas une accélération de
l’inflation. Ce concept reflète sur un plan dynamique l’association de ces deux lois en mettant
l’accent sur le fait que dans toute économique il existe un taux de sous emploi qui est
suffisante pour éviter des tensions sur les salaires entrainant une hausse de plus en plus
accentué des prix. L’idée est que si le produit réel progresse plu vite que le produit potentiel,
il y a une réduction d’autre emploi qui conformément à la loi de Philips provoque la hausse
des salaires nominaux qui se répercute sur le niveau des prix avec un effet de rattrapage sur le
niveau des salaires qui tend à accélérer de plus en plus la hausse des prix conformément aux
mécanismes de l’inflation de noyau.
Cette approche associative du coté de l’offre et du coté de la demande apparaît comme
assez restreinte sur le plan de l’analyse puisqu’elle n’est évoqué au sujet de l’augmentation
plus ou moins rapide des prix et il s’agit donc d’une augmentation partielle de ces deux
approches, or depuis la fin du 20ème siècle, il y a une approche beaucoup plus ambitieuse qui
n’est pas encore achevé.
Section 2 : Modèle d’équilibre général de l’offre et de la demande
macroéconomique.
Ces modèles qui sont en croissance continu sont regroupés sous l’appellation New
Keynésian-DSGE. Le principe de ce modèle est simple, on repart d’un constat qui est vrai en
micro et en macro, les comportements d’offre et de demande résulte fondamentalement de
l’attitude prise par des agents économiques qui sont à la recherche de la situation la plus
favorable possible compte tenu des contraintes qu’ils subissent et il s’agit donc de dérivé
l’offre et la demande globale du comportement même des agents économiques.
La différence avec les modèles macroéconomiques antérieurs est qu’on essaye de
relier les grandes fonctions d’offres et de demande à ces comportements alors que dans
l’approche macroéconomique habituelle, on part sur ces grandes fonctions, on sait bien qu’il
s’agit de résultat de comportement d’agent mais il n’est pas explicité.
10
Il s’agit d’une réintroduction en macroéconomie du comportement d’agent qui est en
principe étudié plutôt en microéconomie mais qui en réalité est présente dans de nombreuses
études macroéconomique depuis longtemps.
1§ : Les modèles à comportement d’agents en macroéconomie.
Le premier qui a émis cette hypothèse est Ragnar Frisch (prix Nobel d’économie en
1969) et il est connu pour avoir dans les années 1930 fondé le terme macrodynamique. Dès
1950, Ragnar Frisch dans un article attire l’attention sur le fait que maintenant que la
reconstruction s’achève en Europe, les modèles Keynésiens utilisé atteignent leur limite car
les agents consommateurs peuvent à nouveau faire des choix et non plus une consommation
contrainte par le revenu. Il pense qu’il est nécessaire de réintroduire des modèles à
maximisation d’utilité en remplacement de la fonction de consommation keynésienne
beaucoup trop simpliste de son point de vue.
Il y a cependant d’autres approches intérieur que l’on peut évoquer notamment celle
proposée en 1695 par Boisguilbert qui est de présenter une explication de l’économie
française sous Louis XIV fondé sur l’attitude prise par les agents économiques face à la
fiscalité existante notamment dans les campagnes qui se résument essentiellement par la
« taille arbitraire » c'est-à-dire le fait que dans les campagnes l’impôt direct est imposé de
manière arbitraire par des personnes chargées d’affecter ces impôts. Ce qui détermine le
chiffrage c’est les apparences de richesse, la consommation apparente, l’activité économique
apparente. Il est pratiquement impossible de discuter le montant de l’impôt et le résultat est
que les agents producteurs et consommateurs des campagnes sont amenés à réduire leur
activité économique apparente à ne pas investir et à limiter également leur consommation en
tant qu’agent rationnel car s’il développait leur production alors il subirait le risque de voir
l’impôt accrus au point de supprimer tout avantage à cette activité supplémentaire.
Vauban va souligner que se sont des agents rationnels qui prennent cette décision.
Turgot n’a pas encore séparé la macroéconomie uniquement sur l’offre et il y a donc un
mélange de considération d’offre et de demande de la part de ces deux auteurs mais
Boisguilbert pense que le revenu et la consommation sont une seule et même chose.
Tout en reconnaissant cette approche Vauban souligne l’importance des
comportements d’offre c'est-à-dire le fait que les agents cessaient d’investir et le résultat était
tout à fait décisif dans la possibilité de redressement économique qui suivrait une meilleur
politique fiscale.
2§ : L’approche par les cycles réels.
Kylland et Prescott, depuis la seconde guerre mondiale pensaient que le cycle
économique aux Etats-Unis résulte principalement d’un changement au hasard dans le taux de
croissance de la productivité pour les entreprises. Le mécanisme serait le suivant : quand la
productivité globale croit plus rapidement que sa tendance moyenne ceci génère un
mécanisme de poussée cyclique et inversement quand la productivité globale croit moins vite
que sa tendance, ceci provoque un phénomène de ralentissement ou de récession économique.
Ce rapprochement économétrique entre ces deux variables ne sont pas tout, il reste à expliquer
le cadre dans le quel on va expliquer ce processus et la proposition de ces deux auteurs et
d’envisagés l’économie américaine d’après guerre comme une économie d’équilibre générale
de type Walrasien ou le vecteur prix s’adapte en permanence. A priori, un tel modèle ne
semble pas compatible avec un mécanisme cyclique car il se maintient en permanence d’état
d’équilibre. En revanche on peut introduire un mécanisme cyclique par les chocs qui trouve
11
naissances dans les nouvelles techniques qui permet d’augmenter les productions avec les
mêmes quantités de matières qui ouvre de nouveaux marchés.
Le comportement initial est celui des entreprises faces aux chocs positif de
productivité qui tend à s’accroitre à un moment donné plus vite que la moyenne. Les
entreprises qui cherchent à maximiser leur produit vont donc engendrer plus de travail et de
capital matériel pour accroitre la production, l’emploi s’accroit ainsi que l’investissement ce
qui aboutit à une croissance de la consommation est donc un trimestre initial d’augmentation
de la productivité globale va entrainer un élan économique qui va durer sur plusieurs trimestre
successifs. A l’inverse, un ralentissement de la productivité va entrainer moins
d’investissement, moins d’emplois, moins de consommation et donc un ralentissement
économique généraliser sur plusieurs trimestres. C’est pourquoi Charles Plauser propose le
cycle réel des affaires pour exprimer le fait que l’origine de cette fluctuation économique est
du coté de l’offre c'est-à-dire du coté des variations de la productivité globale qui est
l’élément dynamique de l’offre globale. Cette approche a entrainée un certain nombre de
discussions.
La particularité la plus notable c’est que pour les auteurs, l’économie américaine
semble donnée une réponse optimale aux différents chocs de productivité, du moins depuis la
seconde guerre mondiale, ce qui laisse penser que les politiques monétaires ou budgétaires
sont inutiles et inefficace puisque la réponse spontanée de l’économie suffit à assurer le retour
progressif à l’équilibre.
Robert Lukas remarque si l’économie américaine est stable depuis la seconde guerre
mondiale, on doit noter que l’offre de monnaie elle-même se comporte également de manière
tout à fait stable et qu’il y a sans doute un lien de cause à effet entre cette stabilité de l’offre
de monnaie assurée par la politique monétaire et la stabilité de l’économie américaine car
avant la seconde guerre mondiale on avait une forte variabilité de l’offre de monnaie et du
produit national. Les conclusions des théoriciens du cycle réel en termes de politique
économique semblent contestables car ils ne peuvent pas discriminer entre les phénomènes
d’équilibres spontanés et les phénomènes provoqués par une politique monétaire active.
Une étude approfondie de la façon de rendre compte des comportements de consommateurs et
des comportements d’entreprises face à des mouvements de la productivité globale mais les
méthodes mathématiques mise au point sont aisément mise au point dans un autre cadre.
Ces modèles représente une synthèse de l’approche de l’offre et de la demande et son
avant tout des explications des fluctuations à court terme du produit national et qui associe
une approche d’équilibre général c'est-à-dire le comportement d’agent face aux données de
marchés et une approche d’origine Keynésienne qui met l’accent sur la relative rigidité des
prix ou du moins de certains prix essentiel dans l’économie.
En effet, à long terme, ces modèles admettent que la solution qui va s’imposer est celle
de l’équilibre général Walrasien mais à court terme, le fait que le vecteur prix soit
« visqueux » (sticky price) fait que l’économie se comporte de manière Keynésienne mais
dans un cadre particulier car il y a association d’offre et de demande globale même si la
demande globale est en principe déterminante de la formation du produit. On va étudier la
réaction d’offre et de demande de la part des consommateurs face à ces prix qui ne sont en
général pas des prix d’équilibre, et ces consommateurs ont un comportement déterminé par
une fonction d’utilité mais qui est inter temporel ou figure l’utilité des biens consommés dans
la période mais aussi des biens consommés dans l’avenir, c’est ce qui rend ces modèles
dynamiques et les consommateurs cherchent à maximiser cette utilité sous contrainte
budgétaire.
12
Les entreprises sont en générale du même type, c'est-à-dire qu’elle cherche à
maximiser leur profit mais sont dans le cadre Walrasien qui sont dans le cadre d’une
concurrence imparfaite qui leur permet de fixer des prix qu’elles vont réviser de manière
périodique et non pas de manière continue. Et c’est ce décalage qui est à l’origine du caractère
visqueux du vecteur prix.
Les retards d’ajustements des prix ont des raisons diverses comme celle du menu
(modifiés la carte souvent mais pas tout le temps). Mais on privilégie plutôt le pouvoir de
marché que possède cette entreprise qui les amène à fixer les prix qui sont en général au
dessus du coût marginale et ne les révises que quand les couts marginal est trop important.
Quoiqu’il en soit, les prix de marché ne sont pas des prix d’équilibre et que pourtant ces
transactions ont lieu à ces prix : systèmes de fausses transactions (en dehors du prix
d’équilibre du marché). Il y aura des offres et des demandes qui ne seront pas cohérentes avec
l’équilibre et il y aura soit des demandes ou des offres excessives qui vont aboutir à des
récession ou à des situations de surchauffe économique dès lors, la politique monétaire qui st
favorisé par cette approche mais aussi la politique budgétaire reprennent toutes leurs
importances puisqu’elles peuvent jouer un rôle correcteur en compensant les déséquilibres
manifestés en particulier la baisse du taux d’intérêt peut relance la demande des ménages et
des entreprises et ainsi compensés le fait que le vecteur prix dans son état actuel provoquerait
un excès d’offre sur la demande.
On peut envisager d’ajouter des agents économiques complémentaires comme une
autorité publique qui va réagir en terme de budget à l’évolution des recettes et des dépenses
qui résultent de la conjoncture et surtout on essaye d’insérer une banque centrale qui est censé
réagir spontanément au double déséquilibre qu’elle constate en terme d’inflation et de sous
emploi, on peut proposer des modèles de réaction de banque centrale pour compenser.
Contrairement au modèle de cycle réel, les politiques monétaires et budgétaires deviennent
essentielles à la stabilité de l’ensemble et on comprend par là pourquoi les banques centrales
dans un mouvement d’aide à la science ont financées massivement la création de ces modèles
statistiques qui permettait de résoudre le divorce entre la science économique et la politique
économique qu’avait crée l’approche par les cycles réelles qui assurait au nom de la science
que la politique monétaire était inutile.
Les simulations faites sont assez raisonnable et ces modèles peuvent rendre compte
aussi bien que d’autres des phénomènes de situation cycliques et ces modèles ont comme
avantage d’apporter une sorte de grande synthèse entre les approches par l’offre globale et par
la demande globale.
3§ : L’accélérateur financier de Ben Bemanke et Mark Gertler.
A partir des années 30, les mécanismes financiers semblent être les principaux
responsables de la transformation de ces crises en dépression grave. Il n’y a pas tellement
d’études réelles entre les situations financières et les situations réelles.
Ils ont cherchés un élément de liaison qui évolue tout au long du cycle financier qui
évolue au cours du cycle économique, en effet dans la période de développement de
croissance économique rapide, les agents économiques ont tendance à prendre des
engagements de plus en plus important en se portant emprunteur pour réaliser des opérations à
plus grandes échelles et leurs situations financières se détériorent donc progressivement, les
établissement financiers n’attache d’abord pas de grandes importances à l’endettement mais
dès que commence à apparaître un retournement cycliques, ces établissement financiers
s’inquiètent de la situation dans laquelle on est arrivée et réduisent les crédit c’est la fuite vers
13
la qualité qui se traduit par une réduction de la capacité d’offre de l’économie et une partie de
la demande globale disparaît car elle était financée à crédit.
C’est ce qui explique que de petits chocs peuvent générer des grands cycles et c’est
pour désigner des phénomènes que ces deux auteurs ont proposé les accélérateurs financiers,
mais cela tire plutôt vers le négatif.
Il y a en fait une multitude d’études menées par ces auteurs, on a reproché ces auteurs
d’avoir cru que le domaine pré-immobilier était en dehors de ce phénomène car l’immobilier
semblait représenter un actif plus stable que les investissements économiques ce qui les aurait
amenés à sous-estimer l’ampleur de la crise issue des sub-primes.
Le mécanisme des accélérateurs financiers est généralement intégrés au modèle DSGE
et fait traditionnellement parti du mécanisme de fluctuations quand on introduit dans ces
modèles des agents bancaires qui vont avoir un comportement conforme à l’accélérateur
financier donc qui auront tendance à restreindre quand il y a des phénomènes de retournement
cycliques. Ses travaux se sont révélés utiles pour la crise des sub-primes et d’aide à refinancer
les banques. Dans le modèle DSGE c’est le taux d’intérêt qui est la variable stratégique et non
pas la masse monétaire.
14
Téléchargement