Conférence de méthode d’économie Séances du second semestre [1] Inflation, désinflation Définitions Inflation : hausse des prix généralisée cumulative et autoentretenue Déflation : contraction des grandeurs économiques nominales, tantôt symptôme tantôt cause d’une récession Désinflation : ralentissement du niveau d’inflation Dévaluation : décision d’inscrire légalement le niveau de la monnaie à un niveau plus bas qu’antérieurement Inflation importée : inflation due au renchérissement de produits importés L’inflation positive provoque une dégradation de la compétitivité des prix, ce qui se traduit par un déficit de la balance commerciale. Différentes inflations L’inflation monétaire trouve son origine dans l’émission excessive de monnaie (par exemple l’afflux de métaux précieux au XVIème siècle, le recours massif à la « planche à billets » avant et pendant la Première Guerre mondiale). L’inflation par la demande se situe dans le prolongement de l’explication précédente : le déséquilibre provient de l’excès de la demande sur l’offre (dont l’inélasticité peut provenir d’une situation de plein-emploi par exemple). Enfin l’inflation par les coûts situe l’origine de l’inflation dans un déséquilibre de la formation des prix au sein de l’entreprise : l’augmentation des coûts, associée à la volonté des entreprises de maintenir leurs profits, favorise une hausse des prix. Les approches théoriques de l’inflation L’économiste mercantiliste Jean BODIN a expliqué en 1568 que l’augmentation des prix en Europe s’expliquait par l’afflux d’or et d’argent en provenance des Amériques. Cette théorie, selon laquelle la valeur d’une monnaie est inversement proportionnelle à sa quantité, est nommée « théorie quantitative de la monnaie » ; elle a été formulée et développée par Irving FISHER en 1911, pour lequel : M x V = P x T. L’idée est que la monnaie en circulation M et le prix moyen P sont strictement reliés ; il faut pour cela supposer que la vitesse de circulation V et le nombre de transactions T sont stables, donc une stabilité des comportements monétaires et de la croissance du PIB. De plus, pour que T soit stable, il faut que la neutralité de la monnaie soit complétée par un plein-emploi des facteurs de production (SAY). Le néoclassique Alfred MARSHALL a mis au point « l’équation de Cambridge » : M = kPY. La demande de monnaie s’explique ici par le niveau de revenu et les prix. Milton FRIEDMAN a réhabilité la théorie quantitativiste : la demande de monnaie dépend du revenu permanent, des anticipations inflationnistes et du patrimoine au sens large. Dans la conception monétariste de la monnaie (ou néoquantitativiste), la demande de monnaie est stable (la fonction de consommation chez KEYNES). Toute augmentation de la masse Yohan Rimaud -1- 17/04/2017 monétaire induit de l’inflation. Est dénoncée la responsabilité de l’Etat qui dépense toujours plus sans augmenter la pression fiscale. En déficit, l’inflation allège le poids de la dette. Les individus ont la capacité d’intégrer dans leurs calculs économiques l’évolution des prix. A court terme les individus pensent être trompés ; à long terme ils réagissent. Pour FRIEDMAN la banque centrale doit être indépendante du politique, garantir la stabilité des prix, et la croissance monétaire doit être indexée sur la croissance du PIB à long terme. Pour les keynésiens, l’inflation par la demande s’explique par une insuffisance de l’offre à cause des facteurs de production employés au maximum dans un secteur ou difficilement mobilisables à court terme. L’inflation est le symptôme d’une demande importante, elle peut favoriser l’investissement, elle incite la consommation et décourage l’épargne (fuite). L’inflation est donc positive. On estime aujourd’hui à entre 2 et 3 % le niveau d’inflation supportable. Les conséquences de l’inflation sur les différents acteurs Les emprunteurs sont favorisés par l’inflation à condition que les taux d’intérêts soient fermes. Les épargnants subissent l’érosion de leur patrimoine. Il y a ainsi un transfert de pouvoir d’achat des créditeurs vers les débiteurs. Les entreprises sont favorisées dans leurs investissements : l’emprunt est à bas prix, les ventes se font à prix élevés (on parle « d’effet levier »). En 1947, John HICKS a distingué l’économie d’endettement (rôle des banques en termes d’intermédiation) et l’économie des marchés financiers (épargne préexistante inchangée). Le rôle des anticipations en matière d’inflation Les anticipations ont un rôle important, confirmant le postulat selon lequel la création monétaire la création monétaire n’aurait aucun effet sur le monde réel de la production ; en effet les agents ont conscience que la hausse de leur salaire nominal ne signifie pas pour autant la hausse de leur salaire réel, et s’abstiennent de produire ou travailler d’avantage. Ils augmentent plutôt le prix des biens et services qu’ils offrent afin de maintenir leur pouvoir d’achat malgré la hausse des prix anticipée. L’ « illusion nominale » et ses conséquences matière de calculs économiques L’ « illusion nominale » est une confusion entre l’augmentation des prix constatée (notamment des salaires) et l’augmentation du pouvoir d’achat réel. Pour les keynésiens, cette illusion peut aider peut aider à une relance par l’augmentation de la consommation. Pour les monétaristes, elle est affaiblie par les anticipations inflationnistes (il s’agit donc d’une illusion temporaire). Pour les théoriciens d’anticipation rationnelle, elle n’a aucune influence car l’anticipation se fait immédiatement. Taux d’intérêts et inflation Il convient de distinguer entre taux d’intérêts nominaux (constatés à un moment t) et taux d’intérêts réels (prenant en considération l’inflation). D’après Irving FISCHER : tir = tin - (hausse des prix). Yohan Rimaud -2- 17/04/2017 L’inflation provoque une diminution des taux d’intérêts réels à condition que les banques n’ajustent pas à la hausse les taux d’intérêts nominaux. Le « dilemme français » Le « dilemme français » est une expression datant des années 1980. L’inflation forte peut nuire à terme aux entreprises via la dévaluation ; il s’agit alors d’inflation importée. On pouvait tolérer l’inflation parce qu’elle permettait des ajustements moins douloureux mais nécessitait de ralentir la demande intérieure. On pouvait préférer la rigueur et le rétablissement d’un Franc fort. La lutte contre l’inflation a amené à restreindre le crédit (en 1975) et à modifier le mode de négociation salariale (avec une modération des salaires très forte, une montée du chômage ; en l’occurrence le chômage a peut-être causé la modération salariale). [2] Monnaie et activité Pour KEYNES, il existe une demande de monnaie pour spéculation. Cette demande peut être reliée aux cours. Or ceux-ci dépendent des taux d’intérêts. La détention de motifs de spéculation est une fonction décroissante du taux. Dans l’économie, il y a des taux d’intérêts directeurs à court terme fixés par les banques centrales. Il existe des taux d’intérêts à plus long terme sur lesquels les banques centrales n’interviennent pas. Les liens dépendent des anticipations : une inflation future élevée détermine des taux d’intérêts élevés. Les formes de la théorie quantitative Voir BODIN, FISCHER, Cambridge, les monétaristes. Le rôle de la monnaie dans la théorie keynésienne Il n’y a pas ici de dichotomie entre la sphère réelle et la sphère monétaire. On peut remédier sous-emploi par l’émission monétaire, qui diminue les taux d’intérêts et favorise les investissements. KEYNES admet les 3 fonctions de la monnaie chères à ARISTOTE : réserves de valeur, étalon de mesure et moyen de transaction. En outre elle peut être désirée pour elle-même, afin d’effectuer des anticipations dans une économie incertaine : la monnaie va remplir une fonction particulière, celle de se prémunir pour une part contre l’incertitude. En effet, elle a une liquidité forte (en tant que moyen de paiement : KEYNES parle de « préférence pour la liquidité » puisqu’on peut se prémunir contre une baisse des prix anticipés). De plus les agents raisonnent en termes nominaux car il est nécessaire d’avoir des certitudes notamment concernant le salaire nominal. C’est en monnaie que se font les anticipations sur le futur. La préférence pour la liquidité a un coût : le taux d’intérêt. Celui-ci est donc monétaire : la variable importante va être la quantité de monnaie en circulation. Trois motifs de demande de monnaie peuvent être distingués : - un motif de précaution : garder une certaine quantité pour faire face à une dépense imprévue - un motif de transaction : effectuer les paiements liés à la consommation - un motif de spéculation : acheter des titres. Les 2 premiers motifs dépendent des besoins donc du revenu, le 3ème des taux d’intérêts. Yohan Rimaud -3- 17/04/2017 On rappellera que chez KEYNES, le revenu se répartit entre consommation et épargne, le facteur déterminant étant la propension à consommer. L’épargne se répartit elle-même entre détention de monnaie et de titres, le facteur déterminant étant les taux d’intérêts. Les grands principes du modèle IS-LM Le modèle IS-LM est une représentation proposée par John HICKS en 1937 des mécanismes keynésiens : le modèle a été jugé par KEYNES globalement conforme à sa pensée. Le modèle IS-LM reprend les hypothèses keynésiennes : rigidité des prix, ajustement par les quantités et intégration de la monnaie dans l’équilibre économique. Il utilise 2 courbes : la courbe IS (investment, saving) représente le bloc réel, la courbe LM (liquidity, money) le bloc monétaire. Le principe est la combinaison de 2 égalités : Y = C + I (provenance) Y=C+S Ce qui revient à dire que C + I = C + S ou que I = S. La condition d’équilibre est donc que l’investissement soit égal à l’épargne. L’investissement est une fonction décroissante du taux d’intérêt, l’épargne est une fonction du revenu : les déterminants ne sont pas les mêmes. Une certaine valeur du taux d’intérêt et du revenu détermine un équilibre. La courbe IS, c’est l’ensemble des couples (i,Y) tels qu’il y a équilibre sur le marché des biens et services. Elle est décroissante. Dans le bloc monétaire sont intégrés les motifs de précaution, transaction et spéculation. On demandera d’autant plus de monnaie que le revenu est élevé, d’autant moins que le taux d’intérêt est élevé. Il existe un couple (i*,Y*) pour qu’il y ait équilibre de l’économie. La question est ensuite d’agir sur IS ou LM pour déplacer le couple afin d’atteindre le plein-emploi. L’ouverture des économies est intégrée dans le modèle IS-LM-BP. Yohan Rimaud -4- 17/04/2017 Il existe 3 cas possibles : - IS1 : le taux d’intérêt ne diminue plus car il est très faible : c’est la zone keynésienne extrême où la politique monétaire n’a aucun effet à cause de la « trappe à monnaie » - IS2 : c’est la zone keynésienne classique : la politique monétaire est efficace - IS3 : la politique monétaire est la plus efficace. L’efficacité des politiques monétaires La banque centrale peut agir sur la demande de crédit en jouant sur le taux d’intérêt. Globalement, c’est la courbe LM qui est déplacée : une expansion monétaire correspond à un déplacement vers la droite. Un taux d’intérêt plus bas a un effet multiplicateur. La politique expansionniste s’est révélée efficace. Les fondements des courants monétariste et nouveau-classique et leur lecture de la courbe de PHILLIPS La courbe de PHILLIPS représente la relation entre le taux de chômage et le taux de variation des salaires nominaux : cette variation est décroissante et non linéaire. Les keynésiens ont remplacé cette relation par une relation inflation-chômage. Yohan Rimaud -5- 17/04/2017 Le salaire apparaît comme un coût de production qui permet de passer au prix de vente en rajoutant une certaine marge. Du coup, quand les salaires augmentent, les prix augmentent. La courbe de PHILLIPS explique qu’il faut tolérer un certain niveau d’inflation quand le chômage diminue. Pour les keynésiens, c’est l’équation manquante puisqu’elle correspond au moment où on approche du plein-emploi. FRIEDMAN intègre les anticipations adaptatives : à court terme les agents peuvent confondre l’augmentation des salaires nominaux avec l’augmentation du salaire réel. L’augmentation des salaires provoque une augmentation des prix par l’entreprise. Les agents constatent que les prix ont augmenté : ils diminuent leur consommation pour rétablir leur pouvoir d’achat. Il n’y a même pas d’effet réel à court terme avant une relance de l’inflation. Les objectifs de la BCE La BCE s’est fixée 2 objectifs (conception monétariste sous-jacente) : - la stabilité des prix - si elle est garantie, un soutien aux politiques économiques. Les piliers de la politique monétaire dans l’UEM et les instruments dont elle dispose Les 2 piliers de la politique monétaire sont l’évolution de l’agrégat de monnaie et un ensemble d’indicateurs. Les instruments sont : - les opérations d’open-market : la BCE offre ou retire des liquidités sur les marchés interbancaires (par 2 procédures : les appels d’offre et les opérations bilatérales entre la BCE et une banque de 2nd rang [la BCE fait payer un surcoût]) - les réserves obligatoires : il s’agit d’obliger les banques de 2nd rang à immobiliser un certain pourcentage rémunéré au taux de refinancement. Yohan Rimaud -6- 17/04/2017 [3] La croissance A l’origine de la pensée moderne, au centre de la croissance il y a la division du travail (SMITH). Pour RICARDO, c’est la spécialisation. Dans un équilibre stationnaire, la loi des rendements décroissants provoque une augmentation des coûts de production et une diminution du revenu. Pour MARX, la baisse tendancielle des taux de profit provoque des crises successives aboutissant à la disparition du mode de production capitaliste. Les néoclassiques admettent la théorie de l’équilibre général. Mais il n’existe pas de théorie de la croissance de l’entreprise. Dans un modèle keynésien, une diminution de la demande va jouer sur les anticipations donc les entrepreneurs. Dans les théories keynésiennes de HAROD-DOMAR, la croissance est déséquilibrée. Au contraire, dans le modèle néoclassique de SOLLOW, la croissance est équilibrée. Mais sa fonction de croissance n’explique pas le résidu, 3ème facteur exogène : le progrès technique. Une nouvelle génération de modèles tentent d’expliquer le résidu de SOLLOW : c’est la théorie de la croissance endogène (d’où une certaine forme d’Etat). Définition La croissance est un phénomène quantitatif qui rend compte de l’accroissement de la production. Pour F. PERROUX, le développement a une dimension plus qualitative : c’est une modification des comportements sociaux, des structures sociales et des mentalités. Le PIB Le Produit Intérieur Brut est composé de la somme des valeurs ajoutées, de la TVA et des droits de douane, moins les subventions à l’exportation. Facteur exogène, facteur endogène Les facteurs exogènes sont extérieurs à l’analyse économique. Ex : démographie, climat… Les facteurs endogènes résultent des agents économiques. La cas de la rente est spécifique : le choc pétrolier a quadruplé les prix de marché ; FRIDMAN avait prévu que cette augmentation allait permettre de nouvelles prospections. Ainsi une donné exogène peut devenir endogène si elle fait l’objet d’un échange économique. Modèles de croissance exogène La fonction néoclassique de production dépend de 2 facteurs : le capital et le travail, qui peuvent varier. La productivité et la quantité des facteurs peuvent varier, soumis à la loi des rendements décroissants : on devrait aboutir à une extinction de la croissance qui se maintient pourtant. Dans le modèle de SOLLOW, le taux de croissance dépend de la population et du progrès technique (2 données exogènes chez SOLLOW). On fait l’hypothèse de rendements d’échelle constants et factoriels décroissants. Le progrès techniques explique le progrès technique. La distinction est faite entre croissance et niveau de revenu. L’épargne et donc l’investissement permettent de soutenir temporairement un revenu par tête plus élevé. La croissance de long terme est déterminée par des facteurs exogènes. Il y a un taux optimal d’épargne. Dans le modèle de SOLLOW, on ne peut modifier le rythme de croissance à long terme. Yohan Rimaud -7- 17/04/2017 Modèles de croissance endogène L’enjeu est d’expliquer le facteur résiduel, c'est-à-dire le progrès technique. ROMER l’explique par les connaissances. ARROW parle d’un phénomène d’habileté qui s’accroît. Dans cette théorie, la production permet d’augmenter le savoir-faire ; des externalités profitent à la productivité des autres facteurs. LUCAS explique le facteur résiduel par le capital humain. Celui-ci est le moteur de la croissance, par une augmentation de la productivité individuelle et globale. Le progrès technique s’explique également par le capital technologique. Les efforts de R&D (bien collectif) permettent de nouvelles découvertes : dans la structure des coûts et les biens de consommation. BARRO l’explique par les infrastructures publiques ; leur existence accroît les rendements du capital privé. Les auteurs nouveaux classiques parlent de l’inanité des dépenses publiques conjoncturelles : ils réhabilitent l’intervention de l’Etat (infrastructures, R&D, droits de propriété…). L’approche de ROSTOW ROSTOW distingue 5 phases : - société traditionnelle : structure déterminée par des fonctions de production limitées, société hiérarchisée - conditions préalables du démarrage : réunies à la suite de la pression extérieure de sociétés plus développées : progrès économique possible et nécessaire à la réalisation d’autres objectifs - démarrage : obstacles et barrages renversés ; les facteurs de progrès économique élargissent leur action et en viennent à dominer la société - marche vers la maturité : longue période de progrès soutenu à mesure que l’économie applique la technologie moderne à ses secteurs - ère de la consommation de masse : la production de biens de consommation durables et les services deviennent les principaux secteurs de l’économie (revenus réels et qualifications augmentent). Le raisonnement suit un développement économique par paliers historiques, et non une autoémulation économique avec diffusion par externalités. L’approche de NORTH/THOMAS Toute croissance provient de l’incitation à entreprendre. Mais cette incitation dépend des institutions qui définissent des droits de propriété, antérieurs à toute forme de progrès technique. L’approche est historique et quelque part institutionnaliste. L’institution politique garantie la propriété privée et la liberté individuelle. La pertinence de la perception marxiste est vérifiée. Les causes des fluctuations de longue durée chez SCHUMPETER Le cycle d’activité chez SCHUMPETER provient d’une innovation majeure (comme l’électricité) qui entraîne une grappe d’innovations qui rendent obsolètes des biens de consommation et des structures de production (c’est la « destruction créatrice »). C’est une conception organique du capitalisme : celui-ci est en perpétuelle évolution car il repose sur de nouveaux besoins. La dynamique du capitalisme repose sur le déséquilibre et par conséquent, l’innovation. La concurrence fait baisser les prix certes mais moins que les Yohan Rimaud -8- 17/04/2017 innovations. Or celles-ci se retrouvent d’avantage dans les grandes entreprises et sont suscitées par le désir d’une position de monopole au moins temporaire. La nouvelle économie est-elle schumpetérienne ? [4] Les crises La crise pour G. KLEIN G. KLEIN distingue 2 types de crises : - les crises concurrentielles : logique déflationniste (ex : 1929) - les crises technologiques : un bouleversement technologique induit une hausse de la productivité, d’où une déflation de l’emploi, et une stagnation ou régression de la demande solvable. Les gains de productivité peuvent absorber l’augmentation de la demande ensuite. La croissance a pu être entretenu pendant les 30 Glorieuses car les gains de productivité s’accompagnaient d’une progression des salaires, donc d’une hausse des prix dans l’économie. La modération des salaires dans les années 1970 a permis une concurrence internationale plus performante et de la modération des coûts. Les facteurs de la modération on été une mauvaise allocation des ressources, la crise du système monétaire international, l’internationalisme. Les économies de pétrole (lors du renchérissement du coût du pétrole) auraient pu nous donner un indice sur les politiques économiques du travail. La théorie keynésienne de la crise La prophétie auto-réalisatrice ou loi de THOMAS ou de MERTON consiste en ce qu’une situation crainte se réalise du fait de comportements conséquents. Les individus peuvent opter pour une épargne de précaution, les marchés financiers céder à la panique bancaire, provoquer un krach des cours. La politique d’endiguement est menée par des investissements publics, une baisse du coût du crédit. On rappellera ici qu’on entend par récession 2 trimestres consécutifs de baisse du PIB. En 1979 au sommet de Tokyo, les pays de l’OCDE ont renoncé à des relances budgétaires. Le choc d’offre et ses conséquences Le choc d’offre est un choc de type exogène qui affecte les conditions de l’offre. Il peut s’agir d’une innovation technologique, d’une modification des salaires (à modérer), d’un choc pétrolier… Cela provoque un déséquilibre entre offre et demande, d’où une modification des prix et par conséquent du calcul intertemporel des agents (voir la théorie des cycles réel de KYDLAND et PRESCOTT, Nobel en 2004). Un choc affecte le salaire et donc modifie le calcul intertemporel du consommateur, notamment le prix du travail qui amène un nouveau partage entre loisirs et travail. Par conséquent, les agents peuvent arbitrer en faveur du temps de loisirs, d’où une diminution de l’offre, ce qui affecte le rythme de la croissance. Pour MANKIW, l’augmentation du chômage en 1929 était en fait une période de grandes vacances. Yohan Rimaud -9- 17/04/2017 L’économie de l’offre Pour les économistes de l’offre (A. LAFFER, G. GILDER, J. KEMP, J. WANNISKI), l’excès d’intervention de l’Etat et des collectivités publiques a provoqué un alourdissement de la pression fiscale globale, explication de la crise. L’augmentation des prélèvements obligatoires a un effet-substitution du loisir au travail et un effet-revenu de surcroît de travail. L’activité et les recettes publiques augmentent conjointement jusqu’au seuil de pression fiscale optimale, au-delà duquel l’effet-substitution l’emporte sur l’effet-revenu. Courbe de LAFFER Les économistes de l’offre préconisent donc une réduction des prélèvements obligatoires, la maîtrise des budgets publics et le respect de l’équilibre budgétaire (et à titre complémentaire, la déréglementation et la libéralisation des marchés). A cette théorie 2 limites : - le taux optimal de pression fiscale est impossible à chiffrer - l’économie de l’offre néglige l’impact macroéconomique des contreparties des impôts et cotisations sociales. La théorie autrichienne de la crise L’investissement est contraint par la quantité d’épargne. Les autorités monétaires diminuent le taux d’intérêt en dessous du taux d’intérêt naturel ou d’équilibre, ce qui provoque une augmentation de l’investissement pas toujours rentable, un surinvestissement qui provoque in fine une baisse de la rentabilité du capital. Pour HAYEK, en maintenant le taux d’intérêt de marché en deçà du taux d’intérêt naturel, on favorise l’investissement et par exemple la substitution du capital au travail, donc le chômage. Par ailleurs, la rentabilité du capital diminue, d’où une accélération de l’activité. L’inflation est conçue comme un impôt ex-post qui s’apparente à de l’épargne forcée. Le résultat est le chômage et l’inflation. L’école du Public Choice J. BUCHANAN (Nobel 1986), G. TULLOCK, G. STIEGLER (Nobel 1982) et JJ. ROSA sont les théoriciens de l’école du Public Choice. Ils soutiennent que l’Etat n’est pas garant de l’intérêt général mais d’intérêts particuliers : il existe un marché politique dans lequel l’offre obéit à une logique de pouvoir et de revenu, la demande correspond aux attentes des électeurs, et le bulletin de vote est une monnaie d’échange (avec asymétrie d’information entre décideurs politiques et électeurs). Yohan Rimaud - 10 - 17/04/2017 Les hommes politiques adoptent 4 types de comportements : - des programmes de dépenses ambitieux dont la question du financement est occultée ou reportée - des dépenses publiques avantageant un groupe restreint d’électeurs (médecins, professeurs, buralistes, agriculteurs…) avec une large répartition de la charge financière - ils privilégient les actions plus visibles à court terme aux actions structurelles - ils exigent sans cesse des moyens supplémentaires, d’où un gonflement de l’administration. Or l’entreprise privée est forcément plus soucieuse d’efficacité car soumise à la concurrence sur le marché, donc au risque de disparaître. Les théoriciens proposent 4 types de solutions : - la maîtrise des dépenses publiques et la réalisation de l’équilibre budgétaire sur la durée d’une législature - le plafonnement de l’augmentation des dépenses publiques par rapport au PIB - la généralisation des techniques de rationalisation des choix publics du type Zero base budgeting (analyse avantages/coûts) - la privatisation des services publics autres que régaliens. Les analyses néo et post-keynésiennes D’après P-A. MUET, TOBIN, il y a inadaptation de la demande à l’offre à cause d’un mauvais diagnostic. La crise s’analyse comme une insuffisance de la demande, une augmentation des coûts de production notamment suite aux chocs pétroliers (soit une inflation par les coûts). Or les réponses monétaires et budgétaires ont été faites à la mauvaise période, d’où une hausse des déficits. Dans un 2ème temps, la crise de l’endettement des pays en voie de développement a maintenu la demande en berne. Le « régime fordiste » Le fordisme assurait l’harmonie entre efficacité économique et progrès social en combinant management hiérarchique, taylorisme et protection sociale généreuse. Les entreprises dégageaient ainsi des gains de productivité permettant une augmentation des salaires et des profits, soutenant à la hausse la demande grâce à la consommation de masse (et un ajustement de l’offre). En résultait globalement un équilibre entre offre et demande plus élevé. Les mutations essentielles de l’environnement international depuis les années 1970 On peut distinguer 3 types de chocs : - d’ordre économique : les 2 crises pétrolières, la nouvelle division internationale du travail (avec l’émergence du Sud-est asiatique)… - d’ordre politique : l’effondrement du mur de Berlin, la fin de l’URSS (et l’extension du libéralisme économique ayant suivi)… - d’ordre monétaire : la fin du système de Bretton Woods en 1971, les 2 crises du système monétaire international en 1990 et 1993, l’Euro… Yohan Rimaud - 11 - 17/04/2017 Les différentes formes de flexibilité Il existe 3 types de flexibilités : - la flexibilité quantitative résultant d’une modification de la quantité de travail - la flexibilité qualitative résultant d’une modification de la répartition de la main d’œuvre à l’intérieur de la chaîne de production - la flexibilité salariale consistant à adapter le coût du travail aux fluctuations. [5] La mondialisation Les théories des avantages comparatifs et absolus La loi de l’avantage absolu est l’œuvre d’Adam SMITH : pour celui-ci tout pays a intérêt à se spécialiser dans les productions pour lesquelles il dispose d’un avantage absolu, c'est-à-dire dont les coûts de production sont inférieurs à ceux de tous les autres pays. Le libre-échange est alors profitable : il permet d’importer des biens à des coûts moins élevés. David RICARDO propose en 1817 une autre explication de la division internationale du travail. Selon lui, chaque pays se spécialise dans les produits pour lesquels il dispose d’un avantage comparatif (en matière de quantité de travail incorporée), c'est-à-dire là où l’avantage est le plus grand, ou bien où le désavantage est le moindre. Dans ce cas, tous les participants au commerce mondial y gagnent. D’après la théorie ricardienne, 2 pays ont toujours intérêt à échanger même si l’un des 2 dispose d’avantages absolus. Le modèle HOS Les théories néoricardiennes tentent d’expliquer l’origine des avantages comparatifs. La 1ère amélioration du théorème ricardien est le théorème HECKSCHER-OHLIN, modèle qu’on appelle modèle HOS car on y joint les travaux de SAMUELSON. Le théorème HOS va affiner le théorème ricardien en disant que la dotation factorielle initiale, donc le facteur le plus abondant, donc au prix le plus bas (et par conséquent aux coûts de production les plus bas), induit la ou les spécialité(s) que se choisissent simultanément, spontanément et au fil du temps les différents pays. Par exemple l’Argentine a des pâturages très riches : cet avantage comparatif l’a tout naturellement spécialisé dans l’élevage. Les recettes liées à l’exportation vont permettre à l’Argentine d’acheter des ordinateurs nippons, spécialité qu’elle ne produit pas. Le théorème HOSS (on ajoute le théorème STOLPER-SAMUELSON) va plus loin en affirmant que les rémunérations relatives (et donc les niveaux de vie) ainsi que les taux de profit devraient converger. La spécialisation va conduire à un rattrapage des taux de croissance avec le modèle de SOLLOW. Le cycle de vie, le rôle de l’innovation L’innovation permet à une firme de bénéficier plus ou moins longtemps d’un monopole dans la production d’un bien nouveau. Les flux de marchandises reposent sur l’innovation. Le professeur VERNON s’est inspiré de la thèse du cycle de vie selon laquelle tout produit connaît 3 phases : celle du lancement-expansion (I), celle de la maturité (II) et celle du déclin (III). Yohan Rimaud - 12 - 17/04/2017 VERNON a appliqué à la sphère internationale ce que FORRESTER voyait dans un pays. Il distingue 4 étapes dans l’insertion des produits dans les échanges internationaux : - le produit nouveau est vendu en petites séries à un prix élevé - le début de la standardisation fait baisser le prix de la vente, des exportations destinées à des étrangers aux revenus élevés se développent - l’apparition de produits étrangers conduit les firmes à aller produire à l’étranger, en substituant la production à l’étranger du bien banalisé aux exportations - le déclin de la demande conduit les firmes à arrêter la production du bien dans le pays ; la demande résiduelle est satisfaite par des importations en provenance des filiales étrangères. Le produit entame une seconde vie dans les pays moins avancés. On peut dégager 3 conclusions de l’analyse de VERNON : les firmes sont le moteur du commerce international, les flux ne sont pas stables dans le temps, il faut mobiliser plusieurs théories pour expliquer les échanges de biens intenses en technologie et biens traditionnels. Empiriquement, l’union douanière européenne mise en œuvre en 1968 a entraîné des délocalisations américaines en Europe pour contourner les droits de douane. Une 2ème vague d’implantations massives en provenance du Japon a eu lieu dans les années 1970-1980. La mondialisation, c’est la mobilité des facteurs de production. Les économies d’échelle, les politiques commerciales stratégiques Economie d’échelle : baisse du coût unitaire du fait de l’augmentation de la production. Externe : le coût unitaire dépend de la taille du secteur. Une entreprise bénéficie alors d’externalités : infrastructures, savoir-faire, information, réglementation… Dans la théorie de la croissance endogène, il a formation et persistance des avantages comparatifs (KRUGMAN). Interne : le coût unitaire dépend de la taille de l’entreprise. Sur le marché mondial, l’entreprise est alors plus compétitive. L’existence d’avantages comparatifs internes conduit à une concurrence oligo/monopolistique. Un but peut être l’émergence d’entreprise de taille critique. Avec les « champions nationaux » et les politiques industrielles volontaristes en Europe, Elie COHEN parle de « néo-colbertisme ». L’Etat peut en effet décider d’aider une entreprise par des achats prioritaires, des aides à la R&D, en favorisant la concentration… C’est ce que KRUGMAN appelle les « politiques commerciales stratégiques » à partir du modèle BRANDER-SPENCER. Afin de réaliser des économies d’échelle externes, les pôles de compétitivité actuels se rapprochent des « districts industriels » de MARSHALL. Il s’agit de produire des externalités (d’où des avantages comparatifs externes), notamment par la coopération. Ex : Grenoble, la Silicon Valley, Clermont-Ferrand, Oyonnax (plastique)… Il existe au moins 2 limites à ces théories : Yohan Rimaud - 13 - 17/04/2017 - KRUGMAN a montré que les subventions pouvant être nécessaires peuvent générer des représailles (ex : Airbus – Boeing) - la théorie de la croissance endogène entraîne 2 résultats : les avantages comparatifs ne sont pas stables dans le temps d’une part, et d’autre part ils peuvent être le fruit d’un « accident de l’histoire ». Ces avantages peuvent perdurer alors que les conditions initiales ont disparu. La différenciation des produits Les théories ricardiennes ont expliqué les échanges de biens différents. Or empiriquement on a constaté des échanges de biens similaires. La différenciation des produits explique les échanges intrabranches, i.e. de biens similaires (40 % du commerce international aujourd’hui). La différenciation est tantôt verticale (selon les prix) tantôt horizontale (selon les qualités). Les demandes caractéristiques des consommateurs sont à l’origine de l’hétérogénéité de la demande nationale. Avec LINDER on peut parler de personnalisation de la consommation. Le commerce va se développer entre pays de niveaux de vies semblables. Une structure oligopolistique peut très bien se maintenir : un même concurrent peut être présent sur des segments différents. Les arguments favorables au libre-échange Il existe au moins 10 arguments principaux plaidant pour le libre-échange car il : - accroît l’efficacité de la production par des gains d’efficacité - améliore le bien-être - assure la paix sociale - bénéficie aux consommateurs : la baisse des prix provoque une augmentation de la demande et de la satisfaction - corrige les inégalités internationales : la demande élevée des pays riches relève le prix des biens produits dans les pays pauvres, théorème HOSS - met tous les pays sur un pied d’égalité - favorise l’industrialisation et la modernisation de l’appareil productif : l’ouverture des économies induit la disparition des secteurs les moins productifs et le renforcement des plus productifs qui bénéficient d’une demande élargie, en théorie il y a en plus un transfert de technologies (bloqué par les brevets en pratique) - est au service de l’intérêt général : les politiques protectionnistes défendent des rentes pour certains groupes seulement - est même soutenu par MARX : si le libre-échange est l’extension du capitalisme à l’échelle du monde, c’est également l’extension de la théorie de la plus-value (crise ultime) - est la politique commerciale la moins risquée : le protectionnisme comporte des risques de représailles et de gaspillage des ressources. Les arguments favorables au protectionnisme Il existe au moins 10 arguments principaux plaidant pour le protectionnisme car il : - est au service de l’enrichissement national : il y a équilibre par la demande interne - est une source de gains dans un pays de grande taille : ceux-ci représentent une part importante du marché mondial et peuvent par conséquent agir sur les prix - protège les industries naissantes ou « dans l’enfance » (LIST) : taxes douanières, subventions à la R&D, fiscalité avantageuse, commandes publiques… - protège les industries vieillissantes : motifs sociaux Yohan Rimaud - 14 - 17/04/2017 - pare au paradoxe de WEST-GRAHAM : les gains à l’échange sont asymétriques selon les types de rendements ; les secteurs où les rendements d’échelle sont croissants ont intérêt à l’ouverture - pare à l’incohérence temporelle du libre-échange : les avantages comparatifs dépendent de la structures des coûts à court terme, des gains de productivité et des externalités à long terme ; or rien ne garantie une continuité - pare à la disparité des systèmes sociaux - permet une politique commerciale stratégique efficace - pare aux disparités des spécialisations : les industries de haute technologie ont des effets d’entraînement, le rythme du progrès technique dépend des avantages comparatifs - préserve mieux l’environnement. Les échanges internationaux en 2004 On discerne 4 tendances : - 40 % du commerce international est intrabranche entre les pays développés - un nombre restreint de pays dominent fortement : la Triade, la Chine et les NPI (80 % du commerce international) ; les autres pays sont marginalisés - la DIPP (Division Internationale des Processus Productifs) de RAINELLI se vérifie : les segments de production sont répartis à divers endroits - quelques firmes multinationales (FMN) dominent fortement l’ensemble. La place du commerce équitable La notoriété du commerce équitable est grandissante : en 2003, 45 % des Français interrogés en avaient entendu parler (contre 9 % en 2000). Les ventes restent limitées en France (au contraire de la Suisse) et représentent 0,005 % de la consommation totale. Sur certains marchés néanmoins (comme le café), l’impact est non négligeable. Cependant le soutien des pouvoirs publics est souvent défaillant. Pour les producteurs, le commerce équitable représente une triple garantie : - une diminution de la dépendance au marché grâce à la stabilité des commandes - une diversification des activités - une possibilité d’investir dans l’éducation et la santé. Qu’attendre de la maîtrise du cours des matières premières ? La maîtrise du cours des matières premières permettrait aux pays du Sud de se prévaloir contre l’incertitude liée à la volatilité de ces cours aujourd’hui. Elle permettrait d’assurer une plus grande stabilité des revenus d’exportation, condition d’un développement réussi. Yohan Rimaud - 15 - 17/04/2017 [6] Les marchés financiers La problématique a été développée à partir de la fin des années 1970, lors de la fin du système de Bretton Woods, dans un contexte d’inflation dans les pays de l’OCDE et de recyclage des pétrodollars. L’innovation financière était alors dynamique : marchés dérivés… Les mouvements de capitaux ont pris une ampleur considérable ; les Etats les ont favorisés afin de financer leurs déficits. La globalisation financière BOURGUIGNAT a développé l’analyse des « 3D » : - décloisonnement : c’est l’ouverture des compartiments au sein d’un Etat, sur le marché monétaire à court terme, financier à long terme - déréglementation : c’est l’ouverture vers l’extérieur des marchés nationaux, par la suppression des contrôles des changes - désintermédiation et titrisation : elles entraînent un recours à l’endettement plus vers les marchés financiers que vers l’emprunt. Dans les années 1930, les Mac Fadden et Glass Steagall Acts distinguent banques commerciales et banques d’investissement, spéculation et épargne. Les buts recherchés de la globalisation financière sont la rationalité (moins de gaspillages) et l’allocation optimale de l’épargne (grâce à la mobilité géographique et à la circulation de l’information [permettant un juste prix de l’épargne]) par un investissement orienté dans les secteurs les plus rentables. Les entreprises accèdent facilement à un financement désintermédié et acceptent de payer le coût marginal de l’investissement. Le financement des secteurs ou pays émergents pose problème : MC KINNON a soutenu que le déficit d’épargne entraîne un cercle de sous-investissement dans les PED. Le risque systémique Risque systémique : dynamique de transmission, possibilité pour un risque local d’affecter l’ensemble du système financier (risque global) dans la mesure où les comportements peuvent ne pas être autorégulateurs ; les comportements des agents peuvent conduire à une transmission de la crise à l’échelle mondiale. Ex. : crise de 1929. La transmission à l’économie réelle s’explique par un financement déficient et par conséquent des Etats en situation difficile en raison de déficits qu’ils ne peuvent plus financer. Les raisons en sont un processus de contagion et un risque d’insolvabilité. Les liens entre l’endettement des pays en développement (PED) et les crises financières, les arguments en faveur et défaveur d’une taxation sur les mouvements de capitaux Dans les années 1970, les PED avaient des besoins forts en capitaux : ils ont recherché un financement auprès des banques, actrices essentielles car elles recyclaient les pétrodollars (les réserves de dollars ont augmenté lorsque le système de Bretton Woods s’est terminé, de plus la guerre du Vietnam a entraîné un creusement du déficit américain, financé par une sortie importante de dollars). Les sorties de dollars ont été accrues par les 2 chocs pétroliers. Les pétromonarchies ont placé leurs dollars sur des places financières (comme Londres) auprès des banques. Celles-ci ont prêté aux PED en dollars. Yohan Rimaud - 16 - 17/04/2017 La 2ème étape intervient lorsque les banques ont fini par prêter d’avantage d’argent qu’elles n’en avaient (grâce à leur pouvoir de création monétaire) : c’est la multiplication monétaire, qui a permis un endettement à un très haut niveau et à des taux d’intérêts faibles. Or WICKSELL a distingué 2 effets à l’endettement : - un effet-levier : le taux d’intérêt monétaire est inférieur au taux de profit (entreprise) ou de croissance (économie), d’où une forte incitation à s’endetter - un effet-massue : le taux d’intérêt est supérieur, d’où une hausse de l’épargne ou plutôt un désendettement. Ainsi il y a un lien entre le niveau du taux d’intérêt, le taux de croissance et la solvabilité des Etats. La crise de la dette est la conséquence d’une augmentation des taux d’intérêts, d’où un retournement de la conjoncture. 2 types de plans de restructuration ont été menés : - la renégociation de la dette (Club de Paris, de Londres) : le plan BAKER par exemple en 1985 consistait en un rééchelonnement de la dette avec conditionnalité - les politiques d’ajustement structurel (Consensus de Washington) : le plan BRADY avait pour objet la réduction de la dette. On distingue entre le principal (stock) et les flux (intérêts). Il peut y avoir un effet « boule de neige » : le gonflement de la dette fait que les pays ne sont jamais capables de la rembourser. Les différentes origines des crises Dans la crise mexicaine (années 1980), le Mexique s’est plié aux injonctions du FMI. Il avait la confiance des investisseurs internationaux : la croissance était accompagnée de mécanismes de crawling-peg (garantie d’une réalité par rapport au dollar). Il y avait par conséquent un endettement important, à court terme : dépendant de la confiance des investisseurs, il nécessitait des liquidités à chaque moment ; la dette était continuellement renouvelée. L’avènement de CHIAVAS provoqua une perte de confiance, conjuguée à la hausse des taux américains, ce qui ne manqua pas de provoquer une dévaluation du peso face à l’appréciation du dollar. La perte de confiance entraîna une nouvelle fuite de capitaux. Les titres n’y étant plus désirés, la bourse de Mexico s’effondra. La crise mexicaine est l’exemple d’une crie de la dette financée par une épargne extérieure. La crise asiatique a été une crise de change avec des mécanismes autoréférentiels. La dévaluation du Baht a eu lieu en 1997. La crise de l’endettement s’est transmise à l’économie réelle par la crise bancaire, via des mécanismes de « credit crunch » (WEISS et STIGLITZ ont détaillé en 1981 le mécanisme de rationnement du crédit par les banques). La crise s’est ensuite propagée à l’économie mondiale. Le FMI est intervenu et a fait l’objet de critiques, notamment vis-à-vis du risque d’aléa moral (entreprises « too big to fail » [ex. : Alstom]) : ceux qui prennent des risques peuvent penser qu’ils seront sauvés ; le FMI soit entretient la prise de risques soit accélère la crise. La spéculation La spéculation consiste en l’achat d’un actif financier en vue de le revendre plus tard à une valeur supérieure. Elle repose sur la prise de risques. Yohan Rimaud - 17 - 17/04/2017 Les avantages et inconvénients des marchés dérivés Sur les marchés dérivés, on échange un prix variable contre un prix fixé à la vente, ce qui permet de se prémunir contre la volatilité des prix. Il existe 3 types de contrats : - les « futures » : il s’agit de l’engagement dès aujourd’hui d’acheter ou de vendre à une date fixée une quantité d’actifs à un prix fixé dès aujourd’hui, ce qui permet de déterminer à l’avance coûts et recettes (ex. : commande d’avions) - les « swaps » : il s’agit d’échanges de conditions - les « options » : il s’agit d’acheter la possibilité de réaliser un contrat (sans obligation). Les avantages sont la prémunition contre l’incertitude (par exemple la prévision des exportations précieuse au commerce équitable) et la réalisation d’anticipations plus fiables parce que les spéculateurs font des paris sur l’évolution des cours. Les inconvénients des marchés dérivés sont un gonflement des échanges (effet-levier), ce qui peut provoquer une déconnection entre les flux de capitaux et les flux réels. Les bulles spéculatives La valeur fondamentale des titres est la valeur actualisée des dividendes futurs. De très fortes anticipations vont amener les titres à des cours très élevés par rapport aux dividendes. Le titre est in fine désiré pour lui-même à court terme car il permet de réaliser des plus-values (mimétisme lorsque les autres le désirent). La bulle spéculative s’insère dans une logique autoréférentielle : les agents anticipent non pas les profits de l’entreprise mais l’augmentation du cours suite aux anticipations des autres agents (phénomène de prophétie autoréalisatrice). Les 2 conceptions de la régulation financière Dans une optique néoclassique, la régulation financière peut se faire grâce à l’efficience informationnelle : il s’agit d’améliorer la circulation de l’information pour une meilleure concurrence. Dans une optique keynésienne, c’est la réglementation des marchés financiers qui est privilégiée (ex. : taxe TOBIN). [7] Les inégalités Il convient de s’interroger au préalable sur la notion d’inégalité ; on pourra pour cela se confronter aux théories de la justice sociale. Les difficultés de mesure des inégalités selon GLAUDE GLAUDE a participé à un rapport du CAE sur les inégalités économiques. Il a mis en lumière plusieurs difficultés de mesure. Tout d’abord il faut prendre garde à la trompeuse photo instantanée, appelée encore coupe instantanée ou étude longitudinale : les inégalités à un moment donné peuvent se révéler inexactes si on prend en compte l’ensemble d’une vie. Le débat actuel porte d’ailleurs sur la question de savoir si les générations futures seront aussi riches que leurs prédécesseurs ; si les parents et grands-parents d’aujourd’hui ont bénéficié des Trente glorieuses, on se souvient Yohan Rimaud - 18 - 17/04/2017 que dans les années 1970 un retraité sur 4 était pauvre (aujourd’hui 1/20). Aujourd’hui 30 % des moins de 25 ans franchiraient le seuil de pauvreté sans les aides familiales. Il convient également de distinguer revenu et niveau de vie. Un ménage est constitué de personnes vivant sous le même toit ; l’unité de mesure serait le revenu par unité de consommation. Avec l’échelle d’Oxford, on pondère le revenu par la taille du ménage et la hiérarchie de ses membres (auxquels on affecte des coefficients). Les ménages ont des coûts fixes : ils peuvent par conséquent réaliser des économies d’échelle. L’INSEE a sa propre échelle. Aujourd’hui un million d’enfants et 7 % des ménages vivent sous le seuil de pauvreté. Ce seuil de pauvreté correspond à la moitié du revenu médian, soit 600 € par unité de consommation. Aux Etats-Unis, le seuil de pauvreté est plutôt défini par le coût de biens de consommation nécessaires à la survie. Au niveau européen, il correspond à 60 % du revenu médian de chaque pays : avec ce critère, 15 % des ménages français sont concernés. Les facteurs influençant la formation des inégalités Les facteurs principaux influençant la formation des inégalités sont au nombre de 2 : le capital humain et le fonctionnement du marché du travail. Le marché du travail discrimine hommes et femmes : l’écart de salaire entre hommes et femmes est d’environ 25/30 %, et augmente quand le poste augmente (il est moindre chez les fonctionnaires). Le taux de chômage est de 12 % chez les femmes. Celles-ci représentent 80 % des emplois à temps partiels. Ces données vont dans le sens du modèle du « bread winner » selon lequel l’homme apporte au ménage le salaire de subsistance, tandis que la femme – lorsqu’elle travaille– apporte un salaire d’appoint. 2 facteurs aggravent les inégalités : il s’agit de la mondialisation (qui soumet les pays riches à la concurrence de salaires bas dans les PED) et des facteurs technologiques, dans la nouvelle économie. Le processus schumpetérien : un processus inégalitaire ? Dans le processus schumpetérien, l’économie repose sur la « destruction créatrice » : des grappes d’innovations rendent certaines biens obsolètes : les salariés de ce secteurs deviennent au chômage, tandis que dans les secteurs innovants les gains sont importants. L’innovation est la prise de risques : l’attitude vis-à-vis du risque détermine la rémunération. Par conséquent il semble logique que les individus risquophiles gagnent plus. La nouvelle économie est basée sur la connaissance : les individus les plus qualifiés et les plus risquophiles sont les plus valorisés. Yohan Rimaud - 19 - 17/04/2017 La courbe de KUZNETS et sa validité La phase I correspond à une période d’accroissement des inégalités, au cours d’un processus d’urbanisation et d’industrialisation : seule une partie de la main d’œuvre dispose des qualités requises. La phase II correspond à une période de stagnation, la phase III à une période de réduction des inégalités. Au cours de ces 2 dernières phases se mettent en place une politique redistributive, l’Etat-Providence et une protection sociale. La principale critique est que les inégalités n’ont cesser d’augmenter quelle que soit la phase. KUZNETS a conçu son modèle dans un contexte particulier, celui de la Guerre froide. De plus, cet Ukrainien émigré aux Etats-Unis a surtout voulu démontrer que le capitalisme pouvait conduire à l’égalité (alternative au communisme). Les inégalités de patrimoines Auteur des Hauts revenus (2001), Thomas PIQUETY explique que les inégalités ne sont pas une loi naturelle, qu’elles résultent du politique. De plus les inégalités sont d’avantage entre les patrimoines qu’entre les revenus. Il y a eu au XXème siècle un mouvement de réduction des inégalités de patrimoines (à cause de l’inflation et des 2 guerres mondiales). La reconstitution des patrimoines a été empêchée par les impôts sur le revenu progressifs et non proportionnels. C’est de moins en moins vrai depuis 1980 et les politiques d’obédience libérale. Les théorèmes de l’économie du bien-être Un équilibre de concurrence pure et parfaite permettrait un optimum de PARETTO, situation dans laquelle la situation d’un agent ne peut s’améliorer sans détériorer celle d’un autre. Amartya SEN a mis au point la 2ème théorie de l’économie du bien-être : un optimum de PARETTO peut résulter d’un équilibre concurrentiel, et permettre de concilier marché et valeurs. On peut réaliser des objectifs humains (ou sociaux) à partir de l’efficacité du marché. Il faut pour cela agir sur les dotations initiales, par exemple à l’aide de politique redistributives ou, d’avantage dans la pensée de SEN, d’un plus grand accès à la formation. Ces théorèmes posent le problème du conflit entre efficacité et justice sociale. Les indicateurs d’inégalité On considère l’ensemble des ménages, on classe leurs revenus par ordre croissant, puis on répartie le nombre total de ménages en déciles. Yohan Rimaud - 20 - 17/04/2017 Plus la courbe de LORENTZ est éloignée de la droite de distribution, plus les inégalités sont fortes. Pour comparer ces inégalités dans le temps ou entre les pays, on utilise l’indice de GINI, qui correspond à la surface hachurée divisée par la surface totale du triangle inférieur. [8] L’Euro Les étapes de la construction européenne Dans les années 1950 débute le processus de Bretton Woods, remis en cause par le flottement des taux de change en 1973 et les Accords de la Jamaïque en 1976. Dans les année 1970 l’inflation, la crise économique, le chômage provoquent une remise en cause des politiques keynésiennes et de la courbe de PHILLIPS. C’est dans ce contexte qu’est signé en 1951 le traité instituant la CECA entre la France, l’Allemagne, l’Italie et le Benelux. Le 29 mars 1957 est signé le Traité de Rome instituant la CEE et la CEEA. En 1968 est signée une union douanière entre les 6 membres fondateurs du Marché commun. En 1969, le 1er rapport WERNER préconise une monnaie unique européenne. En 1973, année de l’entrée de la Grande-Bretagne dans la CEE, le serpent monétaire vise à garantir des bandes de fluctuation des monnaies entre elles. En 1979, le système monétaire européen (SME) est mis en place. Le 28 février 1986 est signé l’Acte unique qui met en place dès 1987 la déréglementation, l’harmonisation des règles et normes nationales, et la reconnaissance mutuelle des règles en vigueur chez les partenaires comme condition d’entrée des produits sur le territoire. Le 7 février 1992, les Douze signent le Traité de Maastricht poursuivant l’intégration communautaire et la coopération gouvernementale. Une monnaie unique est programmée. En 1999, l’Euro entre en vigueur dans les pays de l’Euroland. Les 7 et 9 décembre 2000 sont signés les traités de Nice. Le triangle d’incompatibilité Le triangle d’incompatibilité est le produit des travaux de MUNDELL. Il a été mis en exergue dans le rapport PADOA-SCHIOPPA (1987). Le principe est qu’un espace économique formé de plusieurs pays ne peut connaître simultanément une parfaite mobilité des capitaux, des taux de changes fixes et des politiques monétaires autonomes. Yohan Rimaud - 21 - 17/04/2017 Si des Etats souverains veulent jouir de 2 des caractéristiques correspondant à des sommets du triangle, ils devront renoncer à la 3ème. Les difficultés liées à un mécanisme de changes flexibles (cadre du SME) Dans le cadre de taux de change flexibles, le prix de la monnaie révèle le jugement des marchés sur l’économie nationale. Une monnaie flottante doit permettre un équilibre de la balance commerciale. FRIEDMAN a défendu des taux de change flottants, KEYNES des taux fixes (afin de parer à la spéculation). Or le déficit américain a perduré malgré les fluctuations du Dollar. En France, la politique du Franc fort a coïncidé avec une balance devenue excédentaire. La flexibilité des changes n’a donc pas empêché des excédents ou déficits courants et persistants. Les taux peuvent connaître des phases alternées et durable de sur et sous-évaluation, susceptibles de mal orienter les ressources productives. Enfin les taux de change sont imprévisibles et ne révèlent pas forcément les fondamentaux de l’économie ; ils sont difficilement explicables. Le SME avait pour objectif de limiter les variations des monnaies entre elles ; d’où l’instauration d’une monnaie de référence, l’ECU. Mais 2 facteurs ont atténué ses effets : d’une part le Deutschemark était la monnaie dominante (l’Allemagne avait une balance excédentaire et un différentiel d’inflation favorable), ce qui contraignait les autres pays à s’aligner sur la politique monétaire allemande, et aboutissait in fine à une forte asymétrie donnant à la Bundesbank un poids de leader ; d’autre part le triangle d’incompatibilité. Les critères d’une zone monétaire optimale (ZMO) Une zone monétaire optimale est un espace économique ayant intérêt à substituer à de multiples monnaies entretenant des taux de change variables (KAUFFMAN – 1997) un système de changes fixes ou une monnaie unique. Il existe 4 critères à une ZMO : - MUNDELL (Nobel en 1999) : il faut que la mobilité des facteurs soit plus forte à l’intérieur de la zone qu’à l’extérieur. La flexibilité des prix sert à rétablir un équilibre dans le cas d’un choc asymétrique. Des changes fixes invalident cette arme. Les conditions de rétablissement de l’équilibre sont alors la flexibilité des prix et des salaires ou, à défaut, la mobilité des facteurs de production. Dans l’UE, il fallait accroître l’un ou l’autre. - MC KINNON : il faut un fort degré d’ouverture à l’extérieur des pays participant à la zone. Un choc asymétrique entraîne une dévaluation afin de rétablir la compétitivité-prix. Mais les importations sont renchéries, ce qui relance l’inflation. - KENEN : il faut un tissu productif diversifié. - COOPER : il faut des « préférences homogènes », i.e. la convergence des PM. Yohan Rimaud - 22 - 17/04/2017 Les avantages et désavantages attendus dans le cadre du passage à la monnaie unique Le passage à la monnaie unique présentait 5 avantages : - une réduction des coûts de transaction résultant de la conversion des monnaies (qui représentaient entre 0,3 et 0,4 % du PIB des pays de l’UE) - une meilleure transparence des prix, d’où une concurrence accrue - une élimination du risque de change - une réduction des primes de risque incorporées dans les taux d’intérêts des pays à « monnaie faible », permettant une baisse de ces taux à long terme - la formation d’une grande monnaie internationale susceptible de concurrencer le Dollar. Cependant l’UE ne constitue pas une ZMO au sens où : - prix et salaires sont rigides à la baisse, ce qui empêche une relance des exportations via une modification du taux de change réel par une baisse des prix et salaires - le facteur travail est faiblement mobile - le budget européen est trop modeste (1,27 % du PIB européen de droit, 1 % de fait) pour être utilisé à des fins de stabilisation et de redistribution. Choc symétrique, choc asymétrique Un choc affecte la situation économique d’un pays ; on distingue chocs d’offre, de demande et de politique économique. A l’échelle de plusieurs pays : - les chocs symétriques frappent tous les pays en même temps avec les mêmes effets - les chocs asymétriques sont propres à chaque pays. Selon la nature des chocs, les économies sont amenées à réagir différemment. Les conflits d’objectifs possibles entre la PM et la PB Le « policy-mix » consiste en l’articulation de la PM et de la PB à l’espace d’un territoire. Historiquement, PM et PB étaient menées à un même niveau. Dans l’UE, 1 PM était menée, contre 12 PB. Le budget européen implique une fonction de stabilisation notamment : intervient le mécanisme des stabilisateurs automatiques qui, à législation inchangée, permettent d’atténuer l’ampleur des cycles. Les recettes sont adossées à l’activité économique ; lorsque celle-ci ralentit, les recettes diminuent et les dépenses augmentent, d’où un creusement du déficit public afin de limiter la baisse de la consommation ou phase de récession. A l’inverse, la croissance économique entraîne un excédent budgétaire permettant de limiter les tensions inflationnistes en cas de reprise. Or le budget européen n’est pas suffisamment élevé pour assumer pleinement cette fonction de stabilisateur automatique. Il comprend une fonction de redistribution dans ses gros postes budgétaires (PAC et fonds structurels). Le Pacte de stabilité et de croissance Il y a un problème d’asymétrie entre PM et PB. Quand 2 acteurs ont une stratégie propre, il n’y a pas forcément coopération. La banque centrale a pour objectif la stabilité des prix, d’où des taux d’intérêts élevés, qui peuvent provoquer un ralentissement de l’activité. Interviennent alors des politiques budgétaires de relance, mais celles-ci creusent le déficit et augmentent la dette, d’où une Yohan Rimaud - 23 - 17/04/2017 nouvelle remontée des taux : on est confronté à une spirale infernale. Il y a un risque d’insolvabilité ; celui-ci conduit à baisser les taux, c'est-à-dire à « monétariser » la dette. Pour limiter cela, une guerre d’usure est menée. L’asymétrie (les banques centrales sont indépendantes) aboutit à la nécessité de définir des PB. [9] Le développement économique La théorie de l’équilibre général A l’existence, la stabilité et l’optimalité de l’équilibre d’une économie de marché, les théoriciens de l’équilibre général ont fixé 7 conditions : 1. une monnaie exogène 2. une concurrence parfaite 3. aucun problème d’appréciation de qualité 4. aucun bien public 5. aucune externalité 6. l’annihilation de l’effet perturbateur des anticipations par la multiplication des marchés 7. aucune influence économique des considérations de justice sociale. Si une de ces conditions n’est pas satisfaite, d’autres mécanismes de coordination sont nécessaires. Les échecs et limites des stratégies de développement fondées sur le « Tout Etat » Dans une stratégie de développement fondée sur le Tout Etat, tout est contrôlé par l’Etat : les prix, les circuits de financement… Dans le circuit productif, l’Etat définit les objectifs, les moyens ou techniques : c’est la planification (sur 5 ans par exemple). Outre dans les pays communistes (ex-URSS, Cuba, Corée du Nord…), des stratégies de développement avec une forte intervention de l’Etat ont été à l’œuvre dans les pays décolonisés (Algérie, Côte d’Ivoire…) : le développement est alors autocentré avec de fortes nationalisations, des stratégies de substitution aux importations… De telles stratégies connaissent des échecs et limites : - les gouvernements peuvent utiliser politiques monétaire et budgétaire à des fins politiques - la corruption peut pénétrer les organismes chargés du contrôle de la concurrence - des normes de qualité peuvent s’avérer inadéquates - l’hétérogénéité des préférences rend difficile l’optimalisation du volume des services publics - les organismes publics disposent rarement d’informations assez détaillées pour corriger les externalités - coûts et délais mettent l’action publique en retard des évènements - l’action publique peut générer de nouvelles inégalités. Il peut surtout y avoir un gaspillage des ressources : en effet l’allocation des ressources se fait selon des critères autoritaires (il n’existe pas de prix indiquant la rareté des biens), d’où un évanouissement des gains de productivité et une absence de passage à la consommation de masse. D’après Robert BOYER cela peut aboutir in fine à une contestation politique. Yohan Rimaud - 24 - 17/04/2017 Les défaillances du marché Les défaillances de marché sont les externalités, les biens collectifs et les monopoles. BOYER y rajoute la monnaie, institution collective ne résultant pas d’un mécanisme de marché. Les domaines où l’Etat peut intervenir pour garantir l’efficacité du marché sont : - les règles de la concurrence (la loi anti-trust Sherman Act en 1890 est la 1ère loi à casser le monopole des « barons voleurs ») - les normes techniques et accords sur la qualité : il faut définir un cadre réglementaire - les « droits de propriété » (approche de NORTH et THOMAS). La thèse de BOYER est que les stratégies fondées sur le Tout Etat comme le Tout marché n’ont pas fonctionné ; dès lors on se dirige vers un équilibre entre marché et Etat. Il illustre son propos sur les défaillances de marché par le « miracle chilien » : à la chute du régime de Salvator ALLENDE s’est mis en place une dictature extrêmement libérale. Or ce sont les corrections apportées par la suite (re-réglementation des exportations de cuivre, taxation des mouvements de capitaux à court terme…) qui ont permis le « miracle ». BOYER introduit également les effets dévastateurs de la libéralisation des pays asiatiques. Mais son regard se porte également sur l’action publique : il reprend alors les critiques des théoriciens du Public Choice. Le Tout marché peut échouer à cause des défaillances du marché : il est alors nécessaire de définir la concurrence et d’améliorer le partage de l’information. Au total, aujourd’hui on se dirige vers un Etat qui produirait des « bonnes initiatives » : il ne subsisterait pas au marché mais l’accompagnerait. SEN, le développement et la mondialisation Pour Amartya SEN (Nobel en 1998), les conditions d’un développement réussi sont la complémentarité entre les 3 grandes libertés (économique, sociale et politique) et les institutions qui en découlent. Le marché est un formidable moyen d’assurer l’augmentation des revenus et l’amélioration des niveaux de vie. Néanmoins, l’action des pouvoirs publics est nécessaire afin d’inciter les marché à fournir aux plus pauvres les biens et services répondant à leurs besoins. Quant à la mondialisation, SEN pense qu’on a tendance à n’en voir que les méfaits car on porte un regard limité sur le phénomène. La mondialisation n’est que l’intensification d’un processus plurimillénaire. Marché et ouverture économique apportent richesses, prospérité mais aussi inégalités. D’après SEN, nous avons besoin d’une grande diversité institutionnelle (permettant notamment la démocratie). Nous devons repenser l’organisation et l’équilibre des pouvoirs au sein des grandes institutions mondiales, qui datent de Bretton Woods. Le vrai problème est celui des inégalités de pouvoir. Le développement durable Il existe un conflit de logique entre les modes de régulation de la nature et ceux auxquels obéit la croissance économique. La question du développement durable s’est véritablement posée au début des années 1970 (avec le rapport du Club de Rome, les travaux de BOULDING, GEORGESCU-ROEGEN…). L’expression « développement durable » date de 1987 (rapport BRUNDTLAND). Sous ce qualificatif on dénonce des atteintes portées aux mécanismes régulateurs par lesquels la planète maintient à sa surface les conditions favorables au développement de la vie (biosphère). Apparaît la question d’un mode de développement susceptible de durer dans le temps, sans détruire le milieu naturel et par la même sans Yohan Rimaud - 25 - 17/04/2017 s’autodétruire (idée de solidarité intergénérationnelle). Le développement durable ne constitue donc pas une théorie mais un objectif. Le bouleversement a eu lieu lorsqu’on s’est rendu compte que le monde naturel tombait dans le domaine de la rareté à cause d’une grande mutation : les énergies chaudes (polluantes, non renouvelables, avec un rendement inférieur à 1…). On suit la loi de la thermodynamique : tout système complexe tend à se dégrader, notamment en matière de diversité (la biosphère perd en variétés). Les énergies chaudes peuvent détruire les variétés et ainsi déstabiliser le système. La croissance économique peut-elle contribuer au développement ? Le PIB contribue au développement humain, principalement par l’intermédiaire de l’activité du gouvernement et des ménages. La répartition des ressources gouvernementales visant à améliorer le développement humain dépend des dépenses globales du secteur public, du montant des dépenses allouées au secteur de développement humain (santé et éducation) et de la manière dont elles sont distribuées au sein de ces derniers. Quant aux ménages, leur propension à dépenser leurs revenus après impôts dans des produits qui favorisent directement le développement humain dans les pays pauvres, varie non seulement en fonction de facteurs tels que le niveau et la répartition des revenus entre les ménages, mais également selon la personne qui contrôle la répartition des dépenses au sein des ménages (rôle des femmes). Le développement contribue-t-il à la croissance économique ? La santé et l’éducation d’une population appartiennent aux principaux déterminants de la composition et de la croissance de la production et des exportations. S’il n’existe pas de relation « automatique » entre l’amélioration du niveau de développement humain et l’augmentation du PIB par habitant, bien souvent, investissements et croissance entretiennent une relation positive. D’autre part, une répartition plus équitable des capitaux et revenus favorise des taux de croissance plus élevés. Le capital social L’idée remonte à TOCQUEVILLE, DURKHEIM, WEBER. Le capital social correspond à des réseaux, relations que les individus entretiennent entre eux, ainsi qu’à des normes, valeurs et convictions communes. Le contexte culturel dans lequel les attitudes, valeurs et connaissances communes sont transmises de génération en génération contribue fortement à faire comprendre les choix que font les individus et les groupes à l’égard de la coopération. La confiance est à la fois une source et un résultat du capital social. WOOLCOCK distingue dans le capital social 3 formes de liens essentiels : les liens d’attachement, d’accointances et de contact. Il est difficile de mesurer le capital social. La plupart des mesures portent –faute d’indicateurs plus larges et plus complets– sur la confiance et les niveaux d’engagement ou d’interaction dans des activités sociales ou des activités de groupe. L’incidence du capital social sur le bien-être économique Les réseaux intra et interentreprises peuvent faciliter le travail en équipe, renforcer l’efficience, la qualité, la compétitivité et améliorer les flux d’information et de savoir. Les réseaux régionaux ou locaux peuvent favoriser la circulation de l’information, l’apprentissage mutuel et des économies d’échelle. D’autre part, dans un certain nombre de Yohan Rimaud - 26 - 17/04/2017 pays européens, le capital social est une ressource précieuse pour trouver en emploi (BARBIERI, RUSSELL et PAUGAM – 1999). A l’échelle macroéconomique, KNACK et KEEFER ont constaté une corrélation positive entre une mesure de la confiance générale interpersonnelle et l’accroissement du PIB. Un lien positif et significatif entre confiance et croissance économique a été mis en exergue par HJERRPE. HELLIWELL a constaté une corrélation négative entre confiance et accroissement de la productivité totale des facteurs. D’autres chercheurs ont laissé entendre que la confiance peut stimuler l’épargne, la prise de risque et l’investissement. Néanmoins il n’est pas évident que les changements enregistrés dans l’appartenance à des groupes ou d’autres formes d’interactions sociales aient influé sur les écarts récents de croissance économique entre les pays de l’OCDE. Yohan Rimaud - 27 - 17/04/2017