Economie de l’environnement Introduction générale Très tôt, Question de l’environnement pensée dans la théorie économique comme une frontière de la croissance économique : - MALTHUS, dans essai sur le principe de population (1798) : limiter la croissance démographique car elle augmente à un rythme plus important que celle de la production - RICARDO dans les principes de l’économie politique et de l’impôt (1817) : la mise en culture de terre de moins en moins fertiles conduirait l’économie à un état stationnaire. - JEVONS dans la question du charbon (1865) estimaient que l’épuisement de cette ressource, couplé avec la croissance de la population et l’absence de substitut énergétique conduirait à l’état stationnaire. Toutes ces réflexions qui indiquent une limite à la croissance perdent de leur influence au cours de la seconde moitié du XXe siècle avec les 30 glorieuses où le taux de croissance est très élevé. Au début des années 70, la question des limites de la croissance économique, notamment dans un modèle capitaliste, resurgit à travers la question environnementale. La multiplication des catastrophes écologique (marées noires, perte de la biodiversité, changement climatique), les accidents industriels (Tchernobyl en 1986, Bhopal en 1984) entraînent une prise de conscience à la fois au niveau institutionnel (conférence mondiale sur l’environnement arrivée en 1972, la plupart des pays se dotent de ministères de l’environnement), au niveau politique ( émergence de mouvements écologistes), au niveau législatif ( multiplication des règles à vocation environnementale). Chapitre n°1 : L’analyse économique de l’environnement 1.1. De la nature des biens environnementaux L’économie de l’environnement s’est construite sur le socle de la micro-économie, c’est-à-dire la science de l’allocation des ressources rares. Néanmoins, les biens environnementaux sont différents des biens privés car ils ne répondent pas strictement aux hypothèses de rivalité et d’exclusion. La plupart d’entre eux sont soit : - des biens communs (rivalité, pas exclusion). Exemple les ressources halieutiques en haute mer (HARDING La tragédie des biens communs (1968) - des biens publics purs : non-rivalité, non-exclusion. Ex : air pur 1.2. Les causes de la dégradation des biens environnementaux Les externalités sont la principale explication de la dégradation des biens environnementaux. En effet, dans ce cas, ceux qui dégradent l’environnement ne supportent que le coût privé qui est inférieur au coût social la plupart du temps. En témoigne une enquête réalisée par la RATP en 1997 sur le comportement des franciliens dans leur choix transport : un déplacement en voiture pour le loisir de la première couronne vers Paris (16 km) représentait un coût privé de huit francs à l’époque alors que le coût social était de 114 fr. Ces externalités négatives sont particulièrement fortes dans le cas des biens communs : l’absence d’exclusion entraine la surexploitation : - HARDIN dans La tragédie des biens communs, in Science (1968) donne l’exemple des éleveurs de bétail d’un pré : chaque éleveur est libre du nombre d’animaux qu’il met sur le pré pour les faire paître. Comme il augmente son gain privé tout en partageant le coût avec les autres éleveurs, il est fortement incité à faire venir encore davantage d’animaux dans ce pré. Cela entraîne une situation de surexploitation du pré. - Autres exemples : la surexploitation des ressources alieutiques, la déforestation (cf. modèles bio-économiques infra) ERLICH et ERLICH, dans Extinction : the causes and the consequences of the disappearance of species (1981) ont tenté de formuler un règle générale sur les causes des dégradations environnementales : I = PAT Un impact env. (I) provient de l’interaction de trois facteurs : la population (P), le niveau individuel de consommation (A) et la nature de la technologie (T) (P) : Dans les pays pauvres, le facteur population est la principale cause. Selon la Banque Mondiale, le taux de croissance de la population en Europe sur la période 2001 et 2015 sera de 0% pour l’Europe, 0,3% pour l’ensemble des pays riches, 1,5% pour les pays pauvres et 1,9% pour l’Afrique subsaharienne. Problème principal : la croissance de la population oblige à une mise en culture de nouvelles terres obtenues par la déforestation dont les conséquences environnementales sont graves : Perte de biodiversité (surtout dans le cas des forêts primaires), minéralisation des sols, diminution des ressources hydriques, modifications climatiques, réduction de l’activité touristique La FAO (ONU pour l’alimentation et l’agriculture) estime à 13 M d’hectares PAR AN la déforestation liée à la conversion de forêts en terres agricoles (France = 55 M d’hectares) ! Causes de la déforestation : - La pauvreté à travers deux effets : (i) La croissance démographique liée au sous-développement : la pauvreté oblige les familles à faire des enfants pour apporter une source de revenus et prendre en charge la fin de vie des adultes. Or, comme le TMI est élevé, les familles font plusieurs enfants. (ii) Pour subvenir aux besoins alimentaires de la population qui sont croissants et pressants, la déforestation est rapide. Contradiction entre le court terme et le long terme : les populations sont trop dans l’urgence pour faire des détours de production. - le rôle des pays étrangers qui achètent des terres pour assurer leur sécurité alimentaire avec la Chine comme principal acheteur, ce sont près de 45 M d’hec qui ont été achetées en 2009 contre 4 M entre 1998 et 2008. Accélération due à la crise alimentaire depuis 2008 (spéculation sur les matières premières). A l’avenir ? - Cette situation n’est pas viable à moyen terme car les populations s’installent dans un cercle vicieux de pauvreté : plus elles sont pauvres, plus elles doivent répondre immédiatement à leurs besoins vitaux, plus la déforestation s’accentue, plus les dégradations environnementales risquent de peser sur le développement futur (réduction des ressources hydriques…) et d’enfermer les populations dans la pauvreté (réduction du tourisme…) - Néanmoins, la transition démographique des PED devrait se stabiliser vers 2050 d’après projections en raison d’une hausse du niveau de vie. (A et T) : ce sont les principaux facteurs dans les pays développés : même si les habitants des pays développés ne représentent que 30% de la pop mondiale, ils consomment la majorité des ressources environnementales de la planète. A l’origine de cette dégradation, nos modes de production et de consommation : par ex, les fraises en hivers qui font le tour du monde ; la consommation de viande qui augmente avec le niveau de vie ; rôle des transports… Ces modes de production et de consommation proviennent d’une forte préférence pour le présent (contradiction court/long terme) : - Logique de conso immédiate pour satisfaire des désirs qui dépassent de loin les besoins vitaux. - Leurs représentants partagent aussi cette préférence pour le présent pour des raisons politiques : court terme des mandats qui empêche une action politique de long terme (on le voit au niveau du protocole de Kyoto avec le refus de signer de l’Etat fédéral américain, même si quelques états fédérés ont imposé de lourdes contraintes comme en Californie) ; clientélisme électoral qui ne remet pas en cause les modes de conso des habitants ; activité des lobbies (ex : En 2008, Greenpeace a dénoncé les pressions exercées par l’industrie automobile pour relever le plafond des émissions de C02 : l’Union européenne veut limiter la moyenne des émissions des véhicules à 120 g CO2/km en 2012. Mais, Greenpeace a ainsi calculé que si toutes les dérogations réclamées par les uns et les autres sont retenues, la future réglementation risque d’autoriser jusqu’à 166,5 g de CO2/km d’ici à 2012. C’est bien loin des 120 g réclamés par Greenpeace et plus encore que la moyenne européenne actuelle (chiffre 2007 : 158 g) Chapitre 2 – L’évaluation des biens environnementaux 2.1. Les principes d’évaluation 2.1.1. Les différentes composantes de la valeur Un bien environnemental n’est pas réductible à un service simple qui permettrait d’évaluer aisément son utilité. Par exemple, une forêt rend des services récréatifs ou de fourniture de bois, mais aussi joue un rôle de régulation de la diversité…raison pour laquelle il faut mobiliser plusieurs éléments pour comprendre la valeur économique totale (VET) d’un bien env. - Valeur d’option informationnelle (Claude HENRY dans un article de 1974 « Investment decisions under uncertainty : the irreversibility effect » in American Eco Review) lorsqu’on fait face à des décisions dont certaines sont irréversibles. L’économiste de l’environnement doit souvent comparer la rentabilité de deux projets comme la conservation d’un site en état et son aménagement : - Si aménagement, coût si la rentabilité est plus faible que celle prévue le réaménagement est irréversible - Si pas d’aménagement, l’absence de décision irréversible entraîne un gain de décision flexible avec choix des possibles maintenu L’éco de l’environnement se base sur la notion de surplus en microéconomie pour évaluer les biens environnementaux (en cas de dédommagement comme dans le cas de Tchernobyl par ex.) Elle se base sur la notion de surplus définie par HICKS en 1943 dans l’article « The four consumer’s surpluses » in Review of economics studies : il faut compenser les changements de revenus lié à une modification environnementale pour maintenir le niveau d’utilité constant A partir de la demande hicksienne, deux théories s’affrontent : Situation finale comme référence (Pas de changement, on raisonne donc à partir de la même situation par rapport à ce que la situation aurait du être avec le changement) – surplus équivalent Gain de bien-être Situation initiale comme référence (Après le changement, on raisonne à partir de la nouvelle situation par rapport à l’ancienne situation (situation intiale) prise comme référence) – surplus compensatoire Consentement à payer Perte de bien-être Consentement à recevoir Consentement à payer Consentement à recevoir Débat autour de la mesure à retenir : - Dans un ouvrage de 1989, MITCHELL et CARSON (Using surveys to value public goods : the contingent value method) estiment qu’il faut retenir le surplus compensatoire car les conséquences d’un changement sont en général évaluées par rapport à la nouvelle situation, donc après le changement. - Mais, il est aussi possible de prendre en compte la situation finale à travers le surplus équivalent : par exemple, à la question « a-t-on droit à l’air pur ? », Si la réponse est oui, la situation de référence est la situation meilleure que l’on cherche à atteindre. Dans ce cas, c’est la situation équivalente qu’il faut prendre en compte puisque le changement promis n’a pas lieu. Exemple, la législation américaine sur le Clean Air Act qui définit une obligation légale pas la fourniture d’un air de qualité. Débat pour savoir s’il faut prendre en compte CAR/CAP : Dans de nombreuses études, écarts substantiels apparaissent en faveur de la capacité à recevoir. Dans une étude publiée en 2002, HOROWITZ et McDONNELL « A review of WTA/WTP studies », in Journal of environmental economics and management, constatent sur 45 études que les différences sont réelles (le rapport CAR/CAP peut aller jusqu’à 27 dans certains cas) ; plusieurs explications : - Un effet revenu : comme la capacité à recevoir entraîne une augmentation du revenu à la différence de capacité à payer qui abaisse le niveau du revenu, les individus privilégie souvent la première solution. Plus l’élasticité revenu de la demande est élevée, plus important est l’écart entre CAR et CAP. - Un effet de substitution : si le bien environnemental a peu de substituts, la compensation pour accepter une réduction de quantité doit être élevée (cf. HANEMANN, « Willingness to pay and willingness to accept : how much cant hey differ ? », in American Eco Review (1991) En fait, le débat doit se trancher au cas par cas des évaluations réalisées essentiellement en fonction de la nature des droits de propriété. Ex : Tchernobyl, comme les droits de propriété sont clairement attachés à la situation initiale, le surplus compensatoire l’emporte. 2.2. Les méthodes d’évaluation Deux grandes méthodes d’évaluation : - la méthode des préférences révélées (méthodes indirectes) : on cherche à valoriser les biens non-marchands en observant des comportements réels permettant ainsi de quantifier l’empreinte marchande des biens non-marchands. - Les méthodes des préférences exprimées (méthodes indirectes) : interroger les individus sur leur capacité à payer. 2.2.1. Les méthodes indirectes La méthode des prix hédoniques : Cette méthode part de l’hypothèse qu’un bien est un ensemble de caractéristiques et que son prix est fonction de ses caractéristiques. On isole une caractéristique pour mesurer son influence sur le prix de vente. Plusieurs hypothèses du modèle posent problème (Les deux dernières hypothèses sont rarement vérifiées) : - Le nombre de variables : si il y en a trop, risque de colinéarité ; si pas assez, le prix sera mal expliqué - Les acheteurs sont parfaitement mobiles - Information transparente : les individus sont parfaitement informés sur le lien entre le prix et les caractéristiques retenues BROOKSHIRE, D’ARGE, SCHULTZE et THAYER dans « Experiments in valuing publics goods », in SMITH, Adavances in applied microeconomics, 1981 : recensé 719 ménages occupant un logement dans 14 quartiers de la côte sud de la Californie. Ils n’ont été distingués que par la qualité de l’air environnant. Il en ressort que les ménages sont prêts à payer entre eux 20 et 150 $ par mois pour une réduction de la pollution de l’ordre de 30 %. La méthode des fonctions de dommage : la fonction de dommage comporte 2 phases successives : dans un premier temps, un lien quantitatif de causalité est établi entre une modification de l’environnement et ses conséquences ; dans un deuxième temps, on associe une valeur monétaire au lien mis en évidence dans la première étape. Par exemple, Marc WILLINGER et Serge MASSON (Evaluation des coûts de la pollution atmosphérique sur la santé en île de France, rapport ADEME, 1996) ont évalué les coûts de la pollution atmosphérique sur la santé en Île-de-France à partir de l’étude de ERPURS. Par exemple, pour la fumée noire, il constate qu’une variation de 11 à 26 mg/m3 accroît en moyenne la mortalité de 2 morts par jour et plusieurs hospitalisations. Coût journalier (vie humaine + hospitalisations) de 3 730 000 fr. Comme le niveau de concentration de fumée noire à 26 mg est atteint 180 jours par an, le coût annuel est de 671 millions de francs. 2.2.2. Les méthodes directes Exemple : la méthode de l’évaluation contingente est de plus en plus répandue. Il s’agit d’un sondage qui comporte six étapes : (i) la construction du scénario de référence (cherchant à évaluer une variation du bien-être de l’individu par une modification de l’environnement) ; (ii) La révélation des valeurs : on commence l’enquête soit par interview soit indirectement courrier ou téléphone (iii) le calcul d’une capacité à payer moyenne ; (iv) la recherche de variables explicatives (on cherche à relier les réponses à différentes caractéristiques socio-économiques (revenu, sexe…) ; (v) on multiplie la CAP moyenne par la population totale (vi) L’évaluation de l’étude (y a-t-il beaucoup de faux zéros) Plusieurs biais doivent être évités pour que la méthode soit valable : biais stratégique (sous-évaluation du CAP car passager clandestin) ; le biais lié à l’administration de questionnaire ; le biais hypothétique : les individus peuvent exprimer des CAP différentes de celles qu’ils exprimeraient dans une situation réelle. Les méthodes précédentes sont souvent difficiles à appliquer dans certains pays en développement soit parce que les données marchandes sont peu nombreuses pour utiliser la méthode des préférences révélées (par exemple, le marché du logement est bien loin de fonctionner comme on le suppose avec les prix hédoniques) ; soit parce que les situations hypothétiques des marchés fictifs utilisées dans les méthodes des préférences révélées sont très éloignées du vécu des populations par rapport aux biens environnementaux. D’autres approches alternatives sont mises en place. Par exemple, la méthode du coût de substitution : le bien environnemental est un substitut d’un input marchand pour la production d’un bien marchand. Si bien que en remplaçant l’input marchand par un substitut environnemental, on obtient une mesure de sa contribution à la valeur du produit et on peut en déduire son prix implicite unitaire. Chapitre 3 – Les politiques environnementales dans la théorie Dans le chapitre 1, on a vu que les dégradations environnementales provoquées par l’activité humaine étaient dues à l’existence d’externalités. Dans le chapitre suivant, il est apparu que ces externalités pouvaient être évaluées et qu’il était donc possible d’en tenir compte dans un processus de décision basée sur la comparaison des coûts et des avantages qui en résulteraient. À partir de là, des solutions aux dégradations environnementales semblent aller de soi et consisteraient à mettre en place des institutions. 3.1. L’optimum de pollution (ou social ou de premier rang !) L’existence d’externalités implique une allocation sous-optimale des ressources. En effet, leur présence signifie que qu’un un autre état réalisable plus optimal existe. Prenons l’exemple d’une entreprise polluante. Supposons que les personnes affectées par la pollution décident se financer la mise en place d’un filtre. Si le gain en bien-être l’emporte sur la perte due au paiement de la cotisation, alors la situation de la population s’améliore, sans que celle de l’entreprise ne se détériore. A l’origine du problème des externalités se trouve l’absence d’un système complet de marchés (ie d’un marché où tous les biens présents et futurs ont un prix affiché) car l’externalité n’a pas, par définition, de prix. Il faut alors lui affecter un prix aux externalités pour obliger celui qui produit les externalités négatives à internaliser leur coût social. Ce prix correspond au coût de dépollution. Dans l’approche libérale, le coût de dépollution marginal est optimal lorsqu’il est égal au dommage marginal des riverains. Graphiquement, l’optimum de pollution se trouve au croisement de la droite de coût marginal et de celle de dommage marginal. Il s’agit de minimiser la somme du dommage et du coût de la réduction de la pollution. Autrement dit, le coût de la dépollution ne doit pas être trop élevé pour ne pas menacer l’existence de l’entreprise et, en même temps, celle-ci ne doit pas trop polluer pour ne pas causer trop de dommages aux habitants. Ainsi, l’optimum de pollution n’implique pas l’absence totale de pollution ! Il ne faut pas confondre internalisation des externalités et disparition de la dégradation environnementale. 3.2. Les différents outils de la politique environnementale Les instruments réglementaires : Leur objectif est de contraindre le comportement sous peine de sanctions administratives ou judiciaires. Ils prennent très souvent la forme de normes : (i) les normes d’émission qui définisse les seuils à ne pas dépasser ou à respecter (ii) Les normes de qualité qui spécifie les caractéristiques des milieux récepteurs (niveau de bruit maximum, concentration maximale de nitrates par litre d’eau…) (iii) Les normes technologiques qui imposent l’utilisation de techniques particulières (iv) Les normes de produits qui caractérisent la composition obligatoire d’un produit (phosphates dans les lessives…) Limite : Difficile de trouver la norme qui fixe l’optimum social car cela nécessite de connaitre niveau de pollution optimal et pour cela la droite de coût marginal de dépollution dont le réglementeur a difficilement connaissance car elle relève de la compta privée (alors qu’il peut connaître la droite de dommage marginal) Les instruments économiques : leur objectif est d’inciter à adopter des comportements moins polluants grâce à un signal prix. On peut distinguer les écotaxes, les marchés de permis négociables, Les subventions sur la dépollution ou plus généralement sur le coût de dépollution (en France, les subventions couvrent 40 % des coûts d’investissement des stations d’épuration urbaine), les règles juridiques de responsabilité qui oblige le pollueur à dédommager les victimes. - L’écotaxe est une application du principe de la taxation pigouvienne. Dans un ouvrage de 1932, The economics of welfare, PIGOU préconisait de taxer les entreprises jusqu’à ce que le niveau de taxe, fixé en fonction de l’optimum de pollution, soit égal au coût marginal de dépollution des entreprises. Ainsi, plus le niveau de pollution d’une entreprise est élevé, plus le montant de la taxe est important et inversement. Il en résulte un principe d’équimarginalité, c’est-à-dire que toutes les entreprises ont le même coût marginal de dépollution. La taxe répartie ainsi efficacement l’effort de dépollution entre les firmes. La solution de Pigou revient à donner le droit de propriété sur l’environnement aux pollués et la distribution des revenus entre les pollués et les pollueurs qui en résultent est évidemment moins favorables pour les pollueurs que dans le cas de la norme. Limite: idem que pour les normes ; BAUMOL et OATES ont montré qu’il était inefficace de compenser les pollués pour la pollution optimale qu’ils subissent, en plus de taxer les pollueurs : cela n’inciterait par les riverains à prendre les mesures nécessaires contre les effets de la pollution (The theory of environmental policy, 1988) - la solution des marchés de permis négociables fait référence à la théorie de Ronald COASE émise dans un article de 1960 « The problem of social cost », in Journal of Law and Economics : il s’oppose à PIGOU dans le fait que ce n’est nécessairement au pollueur de payer pour la pollution dont il est responsable sinon il s’ensuit des coûts sociaux (réduction de la production, perte d’emploi éventuel…) En fait il suggère qu’aucune institution n’est véritablement nécessaire pour parvenir à une allocation efficace des ressources si les pollueurs et les pollués peuvent négocier directement entre eux. La répartition du profit total des participants dépend alors du rapport de forces dans la procédure de négociation, mais l’allocation des ressources obtenues est toujours optimale quelle que soit la répartition initiale des droits de propriété sur l’environnement. Par exemple, si des riverains ont droit à une eau propre entre le niveau zéro déchet et l’optimum de pollution, l’entreprise a intérêt à obtenir l’accord des riverains pour déverser des polluants en versant une compensation supérieure au dommage marginale subi par les pollués tout en s’assurant que le paiement est inférieur au bénéfice marginal qu’elle retire de ses rejets. Un accord se fait quand la firme a un niveau de rejets qui égalise son bénéfice marginal et le dommage marginal subi par le fermier. Dans ce cas, l’externalité est internalisée par le pollueur. A l’inverse, si les riverains n’ont pas un droit de propriété sur une eau propre, ils doivent compenser l’entreprise tant que le prix reste inférieur au dommage marginal. Et l’entreprise accepte n’importe quel prix supérieur au bénéfice marginal qu’elles tirent de ces projets. Un accord a lieu quand le prix payé par le paysan égalise son dommage marginal et le bénéfice marginal de la firme. Dans ce cas, l’externalité est internalisée par le paiement de la victime. Limite : Absence de coûts de transaction, c’est-à-dire des coûts de coordination des agents (coût d’informations, de contrôle de la pollution, de rédaction des contrats…) ; mais l’hypothèse ne se vérifie pas dans le monde réel. Deux systèmes sont utilisés : (i) Système « Cap and Trade » : sur une zone géographique, le réglementeur définit un plafond d’émission (le CAP) correspondant au maximum de pollution autorisée. La distribution se faire gratuitement selon une règle de répartition, soit aux enchères.. première solution inéquitable car la distribution se fait proportionnellement aux émissions passées.(ii) Système « Baseline and Credit » : Chaque firme se voit attribuer un niveau à partir duquel ses performances sont mesurées. L’écart entre le niveau de pollution et le niveau fixé peut être acheté ou vendu. Limite : (i) A Kyoto, le nombre de quotas distribués la première année du fonctionnement a été si peu nombreux que le prix du permis a été quasi nul à la fin de l’année1. Cette situation n’est pas lié à l’instrument en lui-même, mais à l’influence des lobbies des firmes auprès des états qui les ont poussés à fixer un plafond trop haut induisant un prix nul. (ii) problème moral lorsque les entreprises ont un nombre de quotas équivalent à leur niveau de pollution. Les instruments informationnels : l’objectif est d’inciter à adopter des comportements moins polluant par le biais d’un signal informationnel. Ex : éco-labels Les accords volontaires ou négociés : Il s’agit de dispositifs contractuels liant une autorité publique est une industrie, où l’industrie s’engage à respecter des objectifs d’amélioration de l’environnement. L’accord se réalise au niveau de l’industrie qui répartit ensuite les efforts. Des industries très polluantes comme celle du verre, des emballages, de l’aluminium ont signé de tels accords notamment sur l’augmentation de l’efficacité énergétique ou la réduction des émissions de CO2. Autres solutions : dans Governing the commons : the evolution of institutions for collective action (1990), Elinor OSTROM remet en cause l'idée classique selon laquelle la propriété commune est mal gérée et doit être prise en main par les autorités publiques (pigou) 1 Le protocole de Kyoto a fixé un objectif de réduction des émissions mondiales de 5 % par rapport à 1990. L’union européenne s’est engagée à réduire de 8 % entre 2008. Pour ce faire, l’union européenne a lancé en janvier 2005 un marché d’échange de quotas d’émissions de carbone. En 2005, les institutions européennes ont émis 2,2 milliards de tonnes de CO2, soit 2,2 milliards de quotas ( un quota égal 1 t). Toutefois les émissions ont été inférieures de 44 millions de tonnes par rapport aux quotas fixés ( France et Allemagne ayant été les plus généreux avec leurs entreprises). Conséquence : le prix du quota qui était de 8,5 euros le 3 janvier 2005 et qui avait atteint 31 € d’avril 2006 s’est effondré à 8,6 euros en mai 2006. Notons par ailleurs que le marché européen actuel n’intègre pas l’industrie des transports (responsable de 25 % des émissions de gaz à effet de serre) ni celle du bâtiment prenant le risque de ne pas pouvoir respecter les engagements de Kyoto. ou le marché (coase). Dans ouvrage, elle décrit de nombreux cas de gestion de ressources par des communautés qui ont su éviter la surexploitation des biens communs. Partant de ces études, elle propose une théorie de l’organisation humaine qui vise à expliquer le succès de certains régimes de gestion d’identifier les stratégies qui pourraient être mises en œuvre dans des situations d’échec de gestion d’une ressource commune. Il s’agit d’une approche institutionnaliste. En outre, elle souligne la supériorité des instruments économiques sur la réglementation : la puissance publique peut y recourir en disposant d’informations moins précises sur les coûts et conditions de production des pollueurs. L’effort de dépollution est réparti efficacement car les coûts marginaux s’ajustent à la taxe ou du prix du droit à polluer et sont donc égaux pour les différents agents. Les instruments économiques incitent à aller au-delà de la norme, ou à faire mieux que l’existant, puisqu’une réduction de la quantité de polluants permet d’économiser la taxe dans le cas de la fiscalité et permet de revendre le permis dans le cadre du marché de permis. Les instruments économiques incitent durablement à l’innovation technologique en matière de procédés de production moins polluants et de techniques de dépollution. 3.3. Quel instrument choisir en l’absence d’incertitude ? En l’absence d’incertitude et de coûts de transaction, l’analyse théorique démontre la supériorité des instruments économiques sur les instruments réglementaires. 1ère raison - coûts de dépollution plus faibles : Les instruments économiques (taxes ou marché de permis) permettent d’atteindre une situation optimale avec des coûts de dépollution plus faibles qu’avec un instrument réglementaire. Chez les producteurs, la norme uniforme fait que la répartition des efforts entre les sources est nécessairement inefficace si les coûts marginaux respectifs diffèrent. Les entreprises qui ont les coûts marginaux de dépollution les plus faibles dépolluent trop peu tandis que les entreprises qui ont des coûts élevés dépensent trop. En revanche, la taxe incite chaque pollueur à diminuer ses rejets jusqu’à ce que le coût marginal de dépollution soit égal à la taxe à payer. Il vaut mieux payer la taxe que de dépolluer à un coût supérieur et dépolluer que de payer la taxe quand celle-ci est plus élevée. La répartition des efforts est efficace puisque le coût total de réduction de la pollution est minimisé grâce à l’égalisation des coûts marginaux des différents pollueurs avec la taxe. 2ème raison – ils sont plus incitatifs : les instruments économiques sont plus incitatifs que les instruments réglementaires lorsqu’une technologie moins polluante est utilisée (progrès technique environnemental) : Avec une norme uniforme (instrument réglementaire), l’entreprise ne cherche pas à dépolluer au-delà du niveau de pollution fixé par la norme. Elle n’a en effet aucun gain économique à espérer d’une baisse de ses rejets. Avec une taxe (instrument économique), l’entreprise a intérêt à réduire ses rejets de polluants. En effet, grâce au PT, les coûts de dépollution diminuent : pour un même niveau de pollution, les coûts de dépollution sont plus faibles avec la nouvelle technologie qu’avec l’ancienne. Dès lors, aves un même niveau de taxe uniforme (ie elle est la même avant et après PT), l’entreprise peut davantage dépolluer. Elle dépollue jusqu’à ce que le coût marginal de dépollution soit égal à la taxe uniforme. Ainsi, double gains : baisse des coûts de dépollution pour l’entreprise + amélioration de la qualité de l’environnement pour les pollués. Le marché de permis négociables ne bénéficie qu’aux pollueurs et pas aux pollués. En effet, avec la nouvelle technologie, et à niveau de pollution inchangé, la demande de permis baisse (on en a moins besoin) et leur prix baisse aussi. Il en résulte alors seulement une baisse des coûts de dépollution pour l’entreprise. Le niveau de pollution global reste inchangé. 3.4. Quel instrument choisir en présence d’incertitude ? Plutôt que de raisonner en termes d’instrument économique et instrument réglementaire, on va raisonner en termes d’instrumentprix (taxe) et instrument-quantité (marché de droits). Incertitude sur les dommages marginaux liés à la pollution (fonction de coût marginal connue) : pas de différence entre l’instrument prix ou quantité. Il y a la même perte sociale en cas de sous-estimation ou de sur-estimation de la fonction de dommage marginal. La perte de surplus social est la même dans les deux cas. Il y a la même efficacité environnementale. Incertitude sur les fonctions de coût de dépollution (fonction de dommage marginal connue) : différences entre les deux instruments selon la pente de la fonction de dommage marginal : - Si la pente de Dm est faible (= plus faible est l’augmentation des dommages en fonction de la pollution), il faut choisir l’instrument-prix car les pertes d’efficacité sont plus faibles dans ce cas. - Si la pente de Dm est forte (= plus les dommages marginaux augmentent rapidement avec le niveau de pollution), il faut choisir l’instrument-quantité car les pertes d’efficacité sont plus faibles dans ce cas La régulation par les quantités est plus efficace si les dommages augmentent plus rapidement que le coût de dépollution (ex : les GES et les marchés de quotas) Le choix entre la régulation par les prix et la régulation par les quantités dépend du type de problème d’environnement et des préférences de la société : La taxation ne garantit pas la réalisation de l’objectif environnemental souhaité, les réactions des pollueurs au signal-prix dépendant des élasticités-prix. En revanche, on contrôle les coûts de dépollution La variable quantité fait peser l’incertitude sur les coûts et, dans le cas des quotas, sur le prix d’équilibre des permis. En revanche, on maîtrise la réalisation de l’objectif environnemental. Si le manque d’info sur dommage et coûts, WEITZMAN montre que (i) lorsque le rapport entre la pente de la fonction de coût marginal et la pente de la fonction de dommage marginal est faible, l’erreur due à la taxe est plus élevée que celle de la norme ; il convient donc de privilégier la norme. C’est notamment le cas pour les biens environnementaux où les dommages sont élevés comme le nucléaire ou la sécurité alimentaire. (ii) Lorsque le rapport est élevé, l’erreur due à la norme est plus élevée que celle due à la taxe ; il convient alors de privilégier la taxe. (1974, Prices versus Quantities, in American Eco Review): Lorsque l’information est imparfaite à la fois au niveau des coûts de dépollution et des dommages, l’optimum social de pollution fait place à l’optimum de second rang. BAUMOL (« On taxation and the control of externalities », in American economic review) en 1972 à proposer un optimum de second rang : dans un premier temps, la collectivité décide d’un niveau souhaitable de pollution ( le niveau optimal n’est pas connu en raison d’une information imparfaite) ; puis, elle décide des instruments mis en œuvre pour atteindre cet objectif. Objectif : minimisation des coûts de dépollution (optimum de second rang). Dans un optimum de second rang, les instruments ne sont plus équivalents et il faut pouvoir les comparer pour choisir le plus approprié. 3.5. Les outils de contrôle 3.5.1. Contrôle ex-post/ex-ante Contrôle ex-ante : il s’agit de l’ensemble des procédures pour obliger les pollueurs à révéler des informations sur leurs coûts et dommages marginaux de pollution. Il s’agit d’une application de la théorie principal-agent de LAFFONT et TIROLE, A theory of incentives in procurement and regulation (1993). Les agents détiennent l’information sur les coûts de dépollution et ne la révéleront qu’en échange d’une compensation. Il peut s’agir d’une compensation monétaire qui soit au moins égale à la rente informationnelle. Plusieurs contrats peuvent être proposés aux pollueurs, associant objectifs de dépollution et transferts monétaires, parmi lesquels ils devront choisir celui correspondant à leur véritable coût de dépollution. Il y a néanmoins des coûts d’information dans la mise en œuvre de ce système de révélation des préférences. Contrôle ex-post : quand bien même on arriverait à déterminer la norme ou la taxe, il faut qu’elle soit respectée. Il y a trois questions à se poser dans le cadre du contrôle ex-post : - établissement de règles de responsabilité : le pollueur est-il considéré comme financièrement responsable de la totalités du dommage causé (règle de responsabilité stricte) ou seulement s’il n’a pas pris de mesures de prévention suffisantes (règle de la négligence) Pour que les pollueurs soient civilement responsables, il faut réunir plusieurs conditions : les pollueurs et pollués sont parfaitement identifiés, lien de causalité entre pollution et dommages clairement établis, dommages évaluables en termes monétaires, coûts de transaction faibles. - mise en place d’un système de pénalités et de contrôle : la minimisation des coûts de contrôle suppose qu’ils soient le moins fréquents possibles mais que les amendes soient élevées. Dans la réalité, amendes faibles et peu appliquées. - un mécanisme de contrôle des pollutions diffuses (cf. SEGERSON « Uncertainty and incentives for nonpoint pollution control » in Journal of Environmental Economics and Management (1988). Non-respect de la réglementation par les entreprises polluantes car 1) coûts de mise en conformité, 2) dimension aléatoire du contrôle des émissions => dispositifs de contrôles a posteriori nécessaires. Il faut punir de manière graduelle car (i) toutes les entreprises n’ont pas la possibilité de payer, (ii) si les pénalités sont trop élevées, les entreprises ont intérêt à frauder au maximum) (iii) coûts de surveillance pour le régulateur si trop de contrôles. La plupart des politiques environnementales se heurtent à des difficultés d’évaluation des dommages (mesure des externalités négatives) et des coûts de dépollution des firmes. Autre difficulté :trouver les bonnes modalités de contrôle pour que les nouvelles règles édictées soient suivies. 3.5.2. Impact du coût du contrôle sur le choix de l’instrument Dans la plupart des manuels d’économie de l’environnement, il est dit que les instruments économiques sont supérieurs aux instruments réglementaires pour atteindre l’optimum de pollution lorsque l’information est parfaite. Or, il existe certaines situations où l’utilisation d’une norme est plus efficace qu’un instrument économique. C’est ce que développe notamment MALIK (« Enforcement costs and the choice of policy, instruments for controlling pollution », in Economic Enquiry, 1992) : l’instrument du marché des droits est moins efficace qu’une norme du point de vue de la minimisation des coûts sociaux totaux (c’est-à-dire coûts de mise en œuvre plus coûts de réduction de la pollution). Au-delà de ce modèle, une norme uniforme peut être plus efficace qu’une taxe : en effet, bien que l’on réalise une économie en termes de coût de dépollution en utilisant une taxe, une norme uniforme peut très bien impliquer une économie de coûts de surveillance plus élevée en offrant la possibilité de moduler le respect de normes, en ajustant les paramètres de la politique d’inspection. 3.5.3. Analyse normative des politiques de contrôle Dans un article de 1966 (« Crime and punishment : an economic approach », in Journal of political economy), Gary BECKER : le délinquant est poussé à agir si le bénéfice privé qu’il retire de son acte de délinquance est supérieur à son coût si il est appréhendé (le coût inclut la sanction est la probabilité d’être appréhendé). Donc appliqué à l’économie de l’environnement, l’amende est optimale si elle est égale à la richesse de l’agent si elle égalise le bénéfice privé retiré de l’acte de pollution. Limite : prescription rarement respectée dans la réalité puisqu’elle implique des sanctions trop sévères. Amende pas maximale car : (i) Nécessité d’une dissuasion graduelle : si les firmes sont pénalisées au maximum quel que soit l’importance de la faute, elles n’ont aucune incitation à ne pas polluer au maximum une fois qu’elles ont décidée de le faire ; (ii) plus la pénalité est forte, plus la probabilité de condamnation est faible pour éviter de condamner à tort un innocent. Ainsi une amende élevée impliquerait une baisse des condamnations et donc inciterait les firmes à frauder davantage. Evaluation empirique : - Effets directs des politiques de contrôle : Par exemple, LAPLANTE et RILSTONE (« Environmental inspections and emissions of the pulp and paper industry in Quebec », in Journal of environmental economics and management, 1996) utilisent des données sur l’industrie des pâtes à papier au Canada. Les résultats montrent que les inspections passées et surtout la menace d’un audit tendent à faire décroître le niveau de rejet. Autre avantage retiré d’une politique d’inspection : elle fournit de l’information sur l’entreprise à l’agence et cela incite les firmes a déclaré le niveau de rejets émis. - Effets indirects : l’annonce de poursuites ou d’amende peut se traduire par une perte d’image et une baisse des ventes ; baisse de la valeur boursière. Dès lors, idée que le marché peut aussi discipliner les entreprises. C’est précisément ce que MUOGHALU et al. ont vérifié dans le cas d’une firme ayant enfreint la loi américaine sur la récupération et la conservation des ressources, l’annonce des poursuites a bien eu un impact négatif sur la valeur de cette firme (MUOGHALU, ROBISON, GLASCOCK, « hazardous waste lawsuits, stockholder return and deterrence ; in Southern Economic Journal, 1990) 3.5.4. Aspects institutionnels Des problèmes peuvent être posés par l’organisation interne de l’agence de contrôle : (i) la délégation de la mise en œuvre de la réglementation à une agence spécialisée suppose de s’assurer qu’elle applique efficacement la nouvelle réglementation (ii) l’agence doit avoir une réputation qui crédibilise ses actions pour être respectée. Pour cela, elle doit avoir une cohérence temporelle dans les décisions qu’elle prend. (iii) corruption des inspecteurs. 3.5.5. Aspects dynamiques On pourrait supposer que plus le montant des amendes est faible, moins les entreprises respectent la législation environnementale. Or, comme le montrent plusieurs analyses notamment de l’EPA (environmental protection agency) aux USA, la conformité est forte même lorsque les amendes sont loin d’être maximales (cf. RUSSELL, 1992, « Monitoring and enforcement of pollution control laws in Europe and the US »). Cette situation provient de l’aspect dynamique des contrôles qui se répètent au fil du temps. Ces contrôles répétés peuvent s’organiser de manière suivante : on constitue plusieurs groupes en fonction du comportement passé des firmes avec, par exemple, des groupes qui vont des plus fraudeurs ou moins fraudeurs et plus le groupe est fraudeur plus il subit le contrôle. 3.6. Limites La pollution diffuse : forme de pollution qui rend inefficace l’utilisation des instruments d’internalisation habituels qui ont été présentés dans ce chapitre. Elle est la conséquence du comportement inobservable de nombreux agents ce qui pose un problème d’aléa moral. Exemple des pollutions agricoles par les nitrates : on sait que ce sont les agriculteurs qui en sont à l’origine, mais il est impossible de quantifier exactement les quantités que chacun émet. le réglementeur peut difficilement contrôler les efforts de chacun pour réduire la pollution ce qui rend la taxe et la norme inefficaces. SEGERSON en 1988 dans « Uncertainty and incentives for nonpoint pollution control » in Journal of Environmental Economics and Management, a proposé un mécanisme dit de la taxe ambiante : Il s’agit d’une taxe individuelle proportionnelle à l’écart entre eux le niveau global de pollution observée et une norme préalablement définie par l’agence. Ainsi, en obligeant le pollueur à prendre en compte non plus son émission individuelle mais le niveau total de pollution, il est possible de résoudre le problème du passager clandestin engendré par l’asymétrie d’information portant sur les niveaux effectifs de rejet. Limite : nombreux producteurs risquent de se trouver devant un problème d’insolvabilité. Chapitre 4 – Les politiques environnementales dans la pratique 4.1. Les taxes et redevances Taxes et redevances sur l’émission : le pollueur reste libre de polluer, mais son calcul économique doit l’inciter à dépolluer. Particulièrement bien adaptée lorsqu’on peut identifier la source de la pollution et quand les émissions sont techniquement mesurables à un coût raisonnable (sonore…). Ex : Taxe sur le souffre en Suède qui a bien fonctionné : à 53 F/kg, diminition de la teneur en souffre des produits pétroliers de 40% en 2 ans. En France, taxe parafiscale sur la pollution de l’air (TPPA) à 180f/t d’émission de SO2 depuis 1985 avec une réduction annuelle de 251 841 t. Limites : - Utilisée en Europe depuis une dizaine d’années, la mise en œuvre s’est écartée des recommandations théoriques. Leurs taux sont faibles, ce qui les rend peu incitatives et leur fonction essentielle est surtout de produire des revenus. - Leur pertinence est plus faible dans le domaine de la pollution de l’air qui est difficilement mesurable. - Leur pertinence est faible lorsqu’on ne peut pas bien identifier le producteurs (ex : pollution de l’air). - le pollueur n’est que le premier payeur et il peut répercuter le coût sur le consommateur en aval ou, en amont, sur les salariés, les fournisseurs, actionnaires. - C’est une mesure curative. Or, la pollution est déjà faite. Il vaut mieux privilégier des mesures préventives. - Une taxe est d’autant mieux acceptée que le prélèvement est affectée au financement de dispositifs de lutte contre la pollution (subventions…). Mais cette démarche soulève deux difficultés : il ne faut pas déterminer le taux et l’assiette de la taxe par rapport au montant des dépenses à financer. Ceux-ci doivent être déterminés en fonction de l’élasticité-prix des comportements, des fonctions de coûts et des possibilités techniques. La taxe peut être perçue comme un droit à polluer : par ex dans le système des agences de l’eau, les redevances de pollution sont affectées au financement des dépenses d’épuration. A ce titre, elles ont été comparées à une mutuelle de plusieurs sociétaires exigeant en retour de leur cotisation un droit à polluer (autre limite) Les taxes peuvent avoir un effet régressif en matière de redistribution : (i) la hausse des écotaxes des biens de grande consommation ou première nécessité frappent davantage les ménages à faibles revenus car ces dépenses représentent une plus part dans leur budget que les ménages aisés. Ex : taxe carbone appliquée aux dépenses d’énergie dans l’habitat car ces dépenses représentent une part plus importante dans le budget de consommation des ménages à faibles revenus que dans celui des ménages à forts revenus. (ii) Il y a aussi une régressivité en fonction du lieu d’habitation : les ruraux sont plus touchés par une hausse de la taxe carbone que les les urbains (qui utilisent plis les transports en commun). Mais d’un autre côté, cet effet régressif peut être compensé par des effets progressifs liés à la lutte contre la pollution. A supposer que les catégories les plus défavorisées sont celles qui sont concentrées dans les endroits les plus pollués des zones urbaines, ils profiteront davantage d’une amélioration de la qualité de l’environnement. Double dividende : - Le premier dividende est environnemental : la taxe réduit les externalités. Par exemple, en France une taxe parafiscale sur la pollution de l’air (ttpa) à hauteur de 180 fr. pour l’émission d’une tonne de S02 depuis 1985 et les réductions annuelles moyennes ont été de 251 841 t. En Suède, une taxe sur le soufre à hauteur de 53 francs par kilo a permis de diminuer de 6 % les émissions totales. - Le second dividende est fiscal: aux Etats-Unis, recettes fiscales utilisée pour baisser l’imposition sur le capital, alors qu’en Europe c’est plutôt une baisse des cotisations sociales sur le travail, notamment les moins qualifiés, qui a été établie. Limite : principe contradictoire car, soit on privilégie le dividende fiscal au détriment du dividende environnemental, soit on le dividende environnemental au détriment du dividende fiscal. En effet, si la taxe entraine une forte amélioration de la qualité de l’environnement, alors les recettes fiscales issues de cette taxe diminue. Inversement, si la taxe est peu efficace écologiquement, il y a une stabilisation des recettes fiscales. Ex : les accises qui frappent les carburants. Une manière de contourner ce problème : si à court terme, la demande est peu élastique, elle rapporte des recettes fiscales, mais à long terme, la demande peut être plus élastique : les comportements changent et il faut créer une nouvelle écotaxe. Les écotaxes et la compétitivité : les écotaxes et réglementations ont-elles un impact sur les choix de localisation des entreprises et entrainent-elles un déplacement des flux d’émissions polluantes. ? A prori, les coûts environnementaux supportés par les entreprises sont encore trop faibles pour susciter la création de « paradis de pollution » ; il existe bien d’autres déterminants de délocalisation. Ex d’application : Les pays scandinaves l’ont mise en place au début des années 90. C’est en suède que cette taxe est la plus élevée avec près de 100 euros la tonne de CO2 avec une compensation par la baisse des prélèvements sur le travail (green tax shift). Il y a en outre des exemptions pour l’industrie. En France, on a renoncé à la mise en place de cette taxe à deux reprises. Dernièrement, la commission Rocard de 2009 a proposé de suivre les recommandations du rapport Quinet (La valeur tutélaire du carbone, rapport du CAS, 2007) avec une valeur de 32 euros la tonne en 2010, 56 euros en 2020, 100 euros en 2030 et 200 en 2050. Finalement, proposition à 17 euros en septembre 2009 et projet abandonné. Taxes et redevances sur le produit : elles sont moins efficaces que celles assises sur les émissions mais quand celles-ci sont difficiles à appliquer, elles sont une solution de second rang. Elles frappent des produits polluants au stade de leur production, de leur consommation ou de leur élimination et conviennent particulièrement aux sources de pollution diffuse. Ex : la taxation différentielle de l’essence contenant du plomb. On taxait plus fortement l’essence avec du plomb. Résultat probant : quasi disparition de l’essence avec du plomb et développement de pots catalytiques. Néanmoins, le plus souvent, les redevances sur les produits n’ont pas un pouvoir très incitatif car leurs taux sont faibles, répondant avant tout à une logique financière. Rappelons que si le produit est très toxique, il est préférable de recourir à la réglementation. Par ex, pertinence des taxes sur les produits faibles dans le cas de l’eau sur les engrais, les pesticides. Le système de consignation : il convient particulièrement à la gestion des déchets dont il contribue à réduire le volume et à éviter le rejet de substances toxiques dans l’environnement (pile usagées, matières plastiques…). Très utiles dans le cas du recyclage. 4.2. Les marchés de permis négociables : Comme la taxation, le marché de permis négociables permet de minimiser les coûts de dépollution. Une plus grande flexibilité lui est reconnue dans le sens où il serait plus facile de modifier le plafond d’émission que le taux d’une redevance. Les situations dans lesquelles les permis négociables sont les mieux adaptés satisfont les conditions suivantes : - les émissions sont facilement mesurables et proviennent de sources fixes. - Le nombre de sources est suffisamment élevé, les différences de coûts marginaux suffisamment grandes et les perspectives d’innovation existent, ce qui permet l’instauration et le fonctionnement du marché. - Il faut que l’impact environnemental soit sans rapport avec l’emplacement des sources de pollution et indépendant de la date de rejet ; car si les pollutions dépend de la localisation des sources, les échanges peuvent conduire à une concentration des permis et donc de la pollution au niveau local. - Il faut une institution comparable à une bourse des valeurs pour assurer la fluidité des transactions et une bonne information. Coûts de transaction peuvent être élevés. Ainsi, le marché des permis négociables est surtout bien adapté à la pollution atmosphérique notamment en raison du fait que l’impact environnemental est sans rapport avec l’emplacement de la source. En revanche, inadapté au domaine de l’eau, des déchets, du bruit car l’impact environnemental est lié l’emplacement et parfois à la période de l’année. Ex de marché de permis négociables : le programme « Acid Rain ». Ce marché a pour objectif notamment de réduire les émissions de dioxyde de souffre. Les compagnies d’électricité sont les principales responsables de cette pollution. En 1980 elles sont responsables de 70% des émissions et le programme doit les amener à n’être plus responsable que de 50%. Une Agence fédérale de protection de l’environnement (EPA)procède à une allocation gratuite de permis, qui se fait en fonction de la quantité utilisée par chaque centrale, jusqu’en 1995 ; pour les entreprises qui ont besoin des permis à partir de 1996, les permis sont payants. Si les émissions excèdent les permis, les sanctions sont créées. Deux types : paiement d’une amende ; obligation de compenser le dépassement l’année suivante. Le bilan est positif : un véritable marché mis en place ; la vente aux enchères d’une partie des permis à partir de 1996 a révélé des informations sur les coûts de dépollution en contribuant à la formation du prix des permis ; les coûts moyens de dépollution ont baissé. Ex intéressant car il illustre la théorie : - une institution, l’EPA, a permis d’assurer les transactions - deux avantages propres aux instruments économiques : baisse des couts de dépollution (égalisation des coûts marginaux de dépollution) ; révélation d’information Sur les dysfonctionnement du Le SCEQE (système communautaire d’échange de quotas d’émissions), cf infra. Cet exemple permet de souligner les limites de l’usage d’un SEUL instrument et mettre en avant la nécessité d’une combinaison entre les instruments quantités et prix 4.3. Une combinaison d’instruments plus efficace… Mettre en évidence l’efficacité d’une combinaison d’instruments… Sylviane GASTALDO, « Comment lutter contre l’effet de serre ? Un panorama des outils économique », in RCE, 2009 : Elle met en avant la complémentarité entre les différents instruments : - la fiscalité nécessite la réglementation et s’accomode de réglementations existantes : l’adoption d’une taxe nécessite des dispositifs réglementaires sur les assiettes visées, les taux appliqués, les mesure de contrôle et les pénalités appliqués en cas de fraude. Ex : le marche européen des émissions de CO2 et l’instauration du marché US sur le soufre avec des règles sur le droit à émettre (statut juridique, fiscal, comptable), la définition des installations, les règles applicables aux échanges (restrictions…) - instruments prix et quantités coexistent : il est préférable de ne pas utiliser le même outil selon la taille de l’émetteur. En raison des coûts de transaction élevés, il vaut mieux utiliser le marché des droits à polluer dans le cas de gros pollueurs à condition qu’ils soient suffisamment nombreux sur le marché secondaire des permis. En revanche, pour les petits pollueurs, les mesures fiscales sont plus appropriées. - Instruments prix et quantités se combinent également : on pourrait imaginer un système où la taxe se combine à un marché de permis pour déterminer le prix plancher et le prix plafond de la tonne de CO2. Pour le prix plafond, la puissance publique taxe, à un certain prix, les émissions de GES qui dépassent les quotas d’émissions fixé par les droits à polluer que détiennent les entreprises. Pour le prix plancher, la puissance publique se propose de racheter à un prix déterminé les permis non utilisés. Jacques LE CACHEUX, Laurent ELOI « le marché européen du carbone en quête de stabilité », in RCE, 2009. Le coût social sur carbone est très souvent supérieur à son coût privé. 3 causes possibles à cette sous-évaluation : droits de propriété mal définis, externalités mal comprises, subventions publiques mal ciblées. Il faut donc trouver les instruments pour que le système de prix reflète le coût social du carbone. La notion de prix social du carbone repose sur deux exigences : internalisation des externalités négatives ; signal-prix envoyé à la société (producteurs, consommateurs) pour prendre conscience du coût réel des pratiques économiques. Les deux auteurs plaident pour une fiscalisation du marché du carbone européen en raison de ses différentes limites. Le SCEQE (système communautaire d’échange de quotas d’émissions) souffre de 3 graves dysfonctionnements qui le rendent peu efficaces écologiquement : - Volatilité du prix de la tonne : en avril-mai 2006, elle est passé de 32 euros à 10 euros sous le coup de l’annonce d’une surallocation des permis par les gouvernements nationaux au cours de la phase I (2005-2007). Malgré la baisse du nombre de permis alloués au cours de la phase II (2008-2012), la crise économique mondiale, qui s’est traduite par une baisse de la demande de permis, a continué à faire baisser le prix de la tonne. - Le brouillage du signal-prix et un prix bas désincitent les entreprises à investir dans des technologies plus respectueuses de l’environnement. En effet, les entreprises les plus performantes technologiquement sont censées être récompensées par un prix attractif des permis, puisqu’elles sont susceptibles de vendre leur permis à leurs concurrentes moins avancée - Le brouillage du signal-prix et un prix bas découragent aussi l’adoption, par les entreprises et les ménages, des technologies qui économisent les énergies fossiles. Nombre de technologies existent déjà (énergies renouvelables) mais ont des coûts d’investissement tels que le seuil de rentabilité n’est atteint que pour un coût d’usage élevé des énergies fossiles et donc un prix relativement élevé de la tonne de CO2. A ce titre, le prix d’environ 6 à 8 euros (mi 2012) de la tonne est très loin des recommandations de la commission quinet. Ces dysfonctionnement pèse sur l’efficacité écologique du dispositif : de 2005 à 2008, la baisse cumulée des émissions est de 1,2%, soit à un rythme inférieur à celui nécessaire pour atteindre une baisse de 20% des émissions en 2020 (objectif annuel de 1,75%) Dès lors, il faudrait fiscaliser le marché du carbone européen. Les deux auteurs proposent d’exonérer complètement tous les secteurs qui y sont soumis de toute fiscalité énergétique ou carbone. Ils proposent aussi une fiscalisation qui inclut un prix plancher de l’unité de carbone pour stabiliser son cours d’où on a vu que plusieurs problèmes découlaient. Pour le prix plancher, l’Etat peut retirer du marché l »’offre excédentaire lorsque le prix baisse. La fiscalisation n’est donc pas une substitution au marché des permis, mais un complément pour avoir une meilleure fiscalité carbone européenne. 4.4. Autres instruments L’approche contractuelle : l’administration négocie avec des contrats avec des entreprises, des agglomérations, un ensemble d’acteurs publics et privés, prévoyant la réduction de leurs émissions polluantes. Ex : EDF s’est engagée à réduire ses émissions de dioxyde de soufre. Lim : ces contrats ne peuvent cocerner qu’un nombre limité de pollueurs. Instruments informationnels La labellisation écologique : l’objectif est d’inciter à la consommation de produits moins polluants et d’informer le consommateur sur leur existence. Lim : multiplication des labels, nuisible à la bonne information des consommateurs. Chapitre 5 - La dimension internationale des problèmes environnementaux Jusqu’au début de 80 l’économie de l’environnement s’est surtout intéressée à l’internalisation des externalités. Mais depuis la situation a changé en raison du développement accru des politiques environnementales nationales parallèlement à la multiplication des échanges commerciaux comme en témoigne la signature de nombreux accords multilatéraux : plus de 500 accords de ce type début 2005. 5.1. Les échanges internationaux (et les politiques commerciales) dégradent-ils l’environnement ? Cette question oppose traditionnellement les environnementalistes qui considèrent que les gains liés à l’extension des échanges sont insuffisants ont compensé les pertes liées aux dégradations environnementales accompagnant cette extension, et, d’autre part, des économistes qui font remarquer que si les dommages environnementaux sont des externalités qui doivent être corrigées par des politiques environnementales. Courbe environnementale de KUZNETS : une relation en U inversé entre le PIB et les dégradations environnementales. Thèse défendue par BECKERMAN dans « Economic Growth and the Environment : Whose Growth ? Whose Environment ? », in World Development (1992). Quand le revenu par tête est faible, les dégradations environnementales le sont aussi en raison des activités économiques réduites. Mais au fur et à mesure de l’intensification de l’agriculture, puis de l’urbanisation et de l’industrialisation, les pollutions augmentent avec la richesse. Quand cette dernière est suffisante, elle permet d’utiliser une part croissante de l’épargne pour améliorer l’environnement. Plus précisément, le lien entre l’évolution du revenu par tête et dégradations environnementales est indirect et passe par trois autres éléments : - le rôle des conditions de production qui intervient à travers trois effets : (i) l’effet d’échelle : un accroissement de la production nécessite plus d’inputs, donc plus de déchets et de pollution ; (ii) l’effet de composition : au-delà d’un certain seuil de développement, la part des activités plus propres tend à augmenter (iii) Effet technologique : un pays riche consacre une partie de son capital aux activités de recherche et développement et en particulier recherche une meilleure efficacité écologique des processus de production (cf théories de la croissance endogène). Quand la richesse augmente au-delà d’un certain seuil de revenu par tête, l’effet d’échelle est plus que compensé par les deux autres et surtout par l’effet technologique. - l’évolution de la demande : quand la demande est principalement dictée par des besoins de survie, les préoccupations environnementales sont absentes. Quand la richesse augmente, le développement éducation inculque des valeurs environnementalistes qui peuvent se traduite par l’élection d’écologistes GROSSMAN et KRUEGER en 1991 (« Environmental impacts of a north american free trade agreement », NBER Working Paper) : Sur différentes zones urbaines de 42 pays., ils montrent que le dioxyde de soufre a une concentration plus importante lorsque le revenu par tête est faible et que celle-ci décroît lorsque le niveau de revenu augmente. Dans le cas du dioxyde de soufre, le pays doit au moins avoir 5000 $ de revenu par tête. Dans leur étude, ils concluaient que l’accord de libre-échange nord-américain entre le Mexique et les Etats-Unis (ALENA) serait favorable au mexicain car leur niveau de revenu atteindrait 5000 $ par tête en 1991 et que le niveau de pollution pourrait baisser. Reprenant cette étude quelques années après, HARBAUGH, LEVINSON, WILSON (« Reexamining the empirical evidence for an EKC », in NBER, 2000) constate que la courbe n’a pas la forme d’un U mais d’un N inversé. Il compare alors les résultats pour les mêmes villes et les mêmes années et ajoutent 3 pays et 25 villes. Période d’observation est allongée de 10 ans (six ans avant et quatre ans après). Pas d’évidence empirique pour la courbe de KUZNETS : Elle apparaît en fait surtout quand le problème environnemental est facile à résoudre. Ex : pour le dioxyde de soufre avec des substitutions aisées (charbon, pétrole) ou des modifications simples (achat de filtres). La multiplication des transports génère de nombreuses pollutions : (i) le transport maritime : il représente 90 % des échanges mondiaux de marchandises en volume. Il a doublé entre 1985 et 2007 et devrait au moins tripler d’ici à 2020, avec d’importantes répercussions sur les émissions de CO2 estimées entre 550 milliards de tonnes et 1100 milliards de tonnes. Sur la période 2007-2020, le trafic de porte-conteneurs devrait être multiplié par six.. (ii) Le transport aérien mondial : les émissions de CO2 directement liés à la consommation de carburant du secteur aérien ont augmenté de 87 % depuis 1990 (les progrès technologiques pour la réduction des émissions de gaz à effet de serre ne suffisent pas à compenser la croissance du trafic.) Les effets du protectionnisme sur l’environnement : dans « Effets environnementaux des aides à l'agriculture : le cas de l'irrigation des céréales en France », in Réduire les subventions pour améliorer l'environnement, pages 51-84, OCDE (1999), Pierre RAINELLI et Dominique VERMESCH montrent que les subventions accordées à l’irrigation des cultures, à travers un allègement du prix de l’eau, renforcent l’agriculture intensive et amène les agriculteurs à utiliser plus d’intrants polluants comme les engrais. Les subventions empêchent le développement d’une agriculture extensive plus soucieuse de l’environnement. 5.2. Les effets des politiques environnementales sur le commerce 5.2.1. Les effets des politiques environnementales nationales sur le commerce Le dumping écologique : la mobilité croissante des facteurs de production pose la question d’une concurrence entre les pays développés et les pays en voie de développement au niveau des normes environnementales (modèle TIEBOUT de vote avec les pieds). À défaut d’une harmonisation négociée de ces normes à l’échelle internationale, la concurrence pousserait les Etats des pays en voie de développement à faire du dumping écologique. Thèse partagée par plusieurs économistes : En 1975 (The Theory of Environmental Policy, Prentice Hall), William BAUMOL et Wallace OATES ont proposé un modèle générant un cercle vicieux. Comparant un pays riche appliquant une réglementation contraignante et un pays pauvre aux normes environnementales laxistes, ces deux auteurs ont conclu que les industries polluantes se délocaliseraient dans le pays pauvre et que celui-ci avait donc intérêt à pratiquer un dumping environnemental : la fabrication polluante du produit dans le pays sans normes est moins coûteuse, ce qui provoque une baisse des prix et donc une hausse de la demande de ce produit. La production polluante augmente alors dans le pays sans normes. Le pays pauvre a intérêt à conserver des normes laxistes s’il veut continuer l’expansion de l’industrie concernée. Contre cette thèse : GROSSMAM et KRUEGER s’attaquèrent à cette argumentation en insistant plus généralement sur le fait que le développement d’accords régionaux est favorable à la préservation de l’environnement ; ex : ALENA avec le Mexique. D’une manière générale, ces travaux empiriques aboutissent également à des résultats contradictoires : - Majorité de travaux confirment l’idée que les industries polluantes ont tendance à se délocaliser vers les pays à faible revenu. Par exemple dans une étude récente, MANI et WHEELER ["In Search of Pollution Heavens? Dirty Industry in the World Economy", World Bank Discussion Paper, 1999] notent que le renforcement des mesures de lutte contre la pollution au Nord s’est accompagné en parallèle et par substitution d’une augmentation rapide des exportations d’industries polluantes en provenance des pays du Sud. - LEVINSON ["Environmental Regulations and Manufacturers’ location Choices : Evidence from the Census of Manufacturers’", Journal of Public Economics, 1996] de son côté relativise l’importance du débat en notant que le coût des mesures antipollution ne représente qu’entre 1 et 5 pour cent des prix de revient dans les pays de l’OCDE. Les firmes resteraient davantage sensibles à d’autres éléments tels que la taille du marché, les coûts de transport, les dotations factorielles.... - D’après les données de l’OCDE, les pays qui consentent le plus d’efforts pour l’environnement (Etats-Unis, Allemagne, Pays-Bas, Japon) sont parmi les plus compétitifs. Ex :USA consacre 2,3 % du PIB par an en 1992. A l’inverse, les pays qui concentrent le moins d’efforts comme l’Espagne, le Portugal ou la Grèce (0,8 % du PIB au début des années 2000) n’en tire pas de bénéfices sur le commerce extérieur. Les mesures anti-dumping : (i) Mesure de rétorsion contre le pays qui adopte ces mesures : Ex de l’Autriche a tenté d’introduire une taxe compensatoire sur l’importation des bois mais elle a dû y renoncer au début des années 90 après que la Malaisie l’eut attaqué devant le conseil du GATT estimant qu’il s’agissait d’une entrave au commerce. Mais risque pour le pays de subir des mesures de rétorsion. Il faut plutôt privilégier une règle appliquée par tous les partenaires commerciaux, ce qui pose d’autres problèmes d’harmonisation. (ii) Aider les entreprises nationales en assouplissement le niveau de réglementation environnementales en diminuant les taxes, en modifiant les normes, en augmentant le niveau des subventions… Mais la question est de savoir si les aides financières ne masquent pas en fait des politiques de soutien anticoncurrentielles. (iii) Adopter unilatéralement des réglementations plus contraignantes en espérant qu’elles deviennent des normes internationales : en plusieurs réglementations, les normes allemandes sont devenues européennes après plusieurs années comme le pot d’échappement catalytique. Autre exemple : aux Etats-Unis, les lois californiennes sur la protection d’environnement sont devenues la base de la juridiction fédérale. Grâce à cette stratégie, les pays qui émettent ces nouvelles règles peuvent détenir un avantage comparatif par la suite (cf. hypothèse de PORTER) L’hypothèse de PORTER (Porter et Van der Linde « Towards a new conception of the environmental-competitiveness relationship » in Journal of Economic Perspectives, 1995) : les régulations environnementales strictes sont favorables à l’efficacité des entreprises et à la croissance économique. Dans un premier temps, toutes les firmes connaissent une augmentation de leurs coûts de production ; mais celles qui réussissent à innover et à gagner des parts de marché ont la possibilité dans un deuxième temps d’augmenter leur productivité et de se trouver dans une position favorable face aux firmes qui n’ont pas été soumises à la réglementation environnementale. Dès lors un pays à intérêt à mettre en place de nouvelles politiques environnementales pour favoriser à terme ses propres firmes en leur fournissant un avantage compétitif. Limite : la théorie suppose que les opportunités de profits supplémentaires permises par la réglementation environnementale proviennent précisément de l’action des pouvoirs publics alors qu’ils sont moins bien informés que les entreprises elles-mêmes sur les conditions de marché et les possibilités de réaliser des profits supplémentaires. Le refus du libre-échange pour protéger l’environnement - Au niveau européen, arrêt de la CJCE de 1988 : la protection de l’environnement est un argument pour limiter l’application des dispositions du traité de Rome concernant les échanges entre pays membres (article 30). Cet arrêt portait sur une loi danoise instituant l’obligation de vendre des boissons rafraîchissantes dans des emballages recyclables agréés par l’agence avec un contingentement de l’importation d’emballages non réutilisables. L’arrêt a condamné le Danemark sur la forme, c’est-à-dire le choix du contingentement, et non sur le fond, c’està-dire la restriction apportée à la libre circulation des marchandises. Inversement, le projet irlandais d’interdiction d’importation de bières en boîtes a été refusé par Bruxelles pour le motif de protectionnisme déguisé (protéger la bière irlandaise) - Au niveau mondial, les accords du GATT stipulent qu’un pays signataire peut prendre de mesures unilatérales pour l’environnement « si ce n’est pas un moyen de discrimination arbitraire, soit une restriction déguisée au commerce international » (article XX). Ex : limiter les risques sanitaires associés à l'amiante (cancer), le gouvernement français a imposé une interdiction à l'importation de cette substance, ainsi que des produits en contenant. En 2001, le Groupe spécial et l'Organe d'appel ont tous deux rejeté la plainte déposée par le Canada contre la France. Ex : En 1996, l’ORD a statué contre les USA qui appliquaient aux importations d’essence du Venezuela et du Brésil des caractéristiques chimiques plus strictes que celles appliquées à l'essence raffinée aux Etats-Unis. Cas de protectionnisme déguisé. 5.2.2. Les effets des politiques environnementales internationales sur le commerce CARRARO et SINISCALCO (« The international dimension on environmental policy », in Eco Review, 1992) ont suggéré que le jeu qui correspondait le mieux à la négociation d’accords environnementaux internationaux serait la coopération partielle avec 2 ou 3 pays. En effet, les pays ont intérêt à se comporter en passager clandestin. Or, les accords environnementaux sont plus larges, il faut l’adhésion d’autres pays. Comment faire ? (i) l’existence de transferts : puisque les non signataires ont un profit plus important en refusant l’accord en acceptant, on peut les inciter à accepter en leur transférant une partie des gains monétaires que font les signataires. Mais ce résultat suppose l’existence d’une institution supranationale qui gère les transferts. (ii) transferts technologiques ou commerciaux. Cette solution plus opérationnelle car pas besoin d’une agence internationale de coordination. Possibilité de recourir à la sanction Pour être efficaces, les punitions ou les récompenses doivent être (i) crédibles car les accords sont réalisés entre des pays souverains en l’absence d’une tierce partie qui pourrait contraindre à signer ; (ii) substantielles pour que les gains soient supérieurs au coût de dépollution ; (iii) Elles ne doivent pas être trop coûteuses pour les pays signataires. Le protocole de Montréal signé en 1987 et appliqué en 1989 répond à ces différents critères (Rappelons qu’il a pour objectif de réduire les émissions de chlorofluorocarbones (cfc) qui dégradent la couche d’ozone et à partir de 1999 il est étendu aux hydrochlorofluorocarbones, bromochlorométhane et le bromure de méthyle) : (i) pays signataires sont crédibles car on y trouve dès le début les USA, la France, le RU, la Russie… ; (ii) les restrictions commerciales entre les pays signataires et non signataire sont substantielles : non seulement le commerce des substances elles-mêmes est interdit entre les signataires et les non signataires, mais cette limitation des échanges touche aussi les produits contenant ces substances (aérosols, réfrigérateurs, voitures avec air conditionné…) ; (iii) la mise en conformité n’est pas susbtantielle. Si pays en difficultés financières, il peut bénéficier des aides d’un fonds multilatéral. Le protocole de Montréal a été un véritable succès car il a été signé par environ 200 pays et il a considérablement diminué l’usage des CFC. Preuve qu’on peut mettre en place rapidement des politiques environnementales efficaces face à un grave problème. Mais, si c’est le cas, pourquoi le protocole de Kyoto continue d’être refusé par des pays comme les Etats-Unis alors que les dangers environnementaux sont très graves ? En fait, ce sont surtout des stratégies industrielles qui ont entraîné le grand nombre de ratifications du protocole de Montréal car les industriels avaient déjà anticipé les nouvelles normes environnementales. Ce n’est pas le cas dans le cadre du protocole de Kyoto où les coûts de dépollution pour les industriels sont très importants et c’est la raison pour laquelle certains pays refusent de le signer (cf USA). 5.3. De KYOTO à DURBAN. Les négociations climatiques Il est possible d’évaluer le contenu des négociations climatiques à l’aune de trois critères : efficacité économique, efficacité environnementale, équité. Efficacité économique = minimisation des coûts de réalisation de l’objectif. Efficacité environnementale = qualité de l’environnement Equité = une règle de partage des coûts équitable. Historique des conférences Efficacité environnementale : - Les experts du GIEC préconisent une stabilisation de la concentration de carbone dans l’atmosphère au niveau 450 parties par millions et le rapport STERN de 2006. Préconise 550 ppm. Dans l’objectif de STERN, chaque habitant de la planète ne devrait émettre que 2,5 tonnes de C02 par an, alors qu’aux US, chaque habitant émet 20 tonnes, en Chine 5t, en Europe, en moyenne 10,3 t. - Le protocole de Kyoto a fixé un objectif de réduction des émissions mondiales de 5 % par rapport à 1990 sur la période 2008-2012. L’union européenne s’est engagée à réduire de 8 % entre 2008. Ces objectifs ne seront sans doute pas atteints car : - ils nécessitent des changements radicaux côté producteur, consommateur. - Chine, 1er émetteur avec 24% des émissions mondiales de CO2, et EU, 2ème émetteur (17% des émissions) n’ont pas signé le protocole de KYOTO L’équité - L’impossible accord sur une règle commune : Dès 1997, des divergences apparaissent. On distingue 3 groupes de pays : les pays de l’Annexe 1 (38 pays de l’OCDE et l’Europe de l’est) qui acceptent de réduire les émissions de 5,2% par rapport au niveau de 1990 sur la période 2008-2012 (reconnaissance d’une reponsabilité historique dans le changement climatique) ; un groupe « parapluie » qui englobe EU, Canada, Japon, Russie, Ukraine ; un groupe des 77 avec Chine qui représente les PED. - Lors de la conférence de BONN en 2001, les EU se retirent du processus refusant de prendre des engagements tant que le groupe des PED n’en prendront pas. - Lors de la conférence de Copenhague, les EU et les BASIC (brésil, afrique du sud, inde, chine) continuent de refuser tout engagement contraignant. Dès lors, pour maintenir les négociations, une autre logique de négociation est mise en place. Il s’agit d’une logique de « bottom up » au lieu d’une logique « top down » : chaque pays choisit ses propres engagements. Par ex, les EU se fixent un objectif de réduction de 4% des émissions d’ici 2020. Il est prévu que les libres propositions des Etats obéissent à une règle de transparence, mais Chine refuse pour atteinte à sa souveraineté nationale. - Une autre avancée de Copenhague réside dans l’augmentation des soutiens financiers aux PED. Les règles de fonctionnement de ce « fonds vert » ne sont néanmoins pas fixés précisément, et en particulier la clé de répartition des contributions nationales des pays développés. Le rôle de la déforestation dans les émissions de GES est explicitement mentionné et la mobilisation des fonds est prévue pour la mise en place d’une mécanisme REED (réduction des émissions issues de la déforestation et de la dégradation des forêts). - Lors de la conférence de Cancun, même si aucune réelle avancée n’apparaît, le processus onusien est relégitimé alors que les US voulaient le quitter grâce notamment au pays émergents qui prônent un multilatéralisme. L’efficacité économique - Le protocole de KYOTO prévoit un triple mécanisme de lutte contre les GES : Un marché de permis Mise en œuvre conjointe : elle permet le financement des projets destinés à réduire les émissions de GES au sein des pays de l’annexe 1. Le pays investisseur obtient en échange des crédits d’émission qui défalqués du quota du pays où est réalisé le projet Mécanisme de développement propre : il donne la possibilité aux pays de l’annexe 1 de réaliser des projets d’investissement dans les PED qui n’ont pris aucun engagement de réduction de leurs émissions. Les crédits d’émission obtenus en contrepartie de la quantité de GES réduite sont créés ex nihilo et viennent augmenter le quota de l’investisseur. - Aux EU, le « Pigou Club » s’oppose à la mise en place d’un marché des droits à polluer et préconise la mise en place d’une taxe carbone. Le marché de permis présente plusieurs défauts : incertitude sur les prix futurs du carbonne et donc sur les coûts de la politique climatique qui incitent les pays à refuser de participer à l’effort globaln donc à rester en passager clandestin ; coûts de transaction élevés ; allocation initiale des droits d’émission soumise aux groupes de pression. - Le marché international des unités Kyoto est très marginal et ne mérite pas qu’on s’y intéresse. - En revanche, son application au niveau européen doit être analysée car le système européen d’échange de quotas d’émission représente 80% des échanges mondiaux. Envisagé en 2001, quand les EU se retirent du protocole de kyoto, il est mis en place en 2005. Il concerne env 11000 installations industrielles représentant 50% des émissions européennes de C02 dans 5 secteurs : production d’énergie, production de métaux, de ciment, de verre et de papier. 1118 installations en France. Pour des raisons de compétitivité, l’allocation gratuite est le principal mode de mise en circulation des permis durant les deux premières phases : 2005-2007 et 2008-2012. A partir de 2013, mise aux enchères prévaut. Plusieurs problèmes : (i) forte volatilité des prix pour des raisons diverses (octroi trop généreux, croissance plus faible que prévu, température plus douce) avec en mai 2007 un prix proche de zéro ! (ii) prix trop peu incitatif qui en obère l’efficacité. Mais attention ce n’est pas forcément le système qui est inefficace, c’est surtout un manque de volonté politique. Une certaine réussite néanmoins avec un marché qui s’est mis en place et qui a fixé le prix du carbone au niveau mondial. Réussite permise par l’existence d’une autorité publique au niveau communautaire. 5.4. Protectionnisme environnemental ? Le cas du mécanisme d’ajustement aux frontières Le paquet climat-énergie de janvier 2008 prévoit l’adoption de mesures de protection de la compétitivité industrielle des secteurs exposés selon deux modalités possibles s’il n’y a pas d’accord international : – un pourcentage d’allocation gratuite, dérogeant au principe général d’évolution vers des enchères à 100% en 2020; – un mécanisme d’ajustement aux frontières sur les importations dans l’UE Dans le domaine du climat, les taxes sur le CO2 et les systèmes d’échanges de droit d’émissions font débat car ils augmentent les coûts de production. Ceux-ci sont compensés en prélevant une taxe lors de l’importation de produits similaires qui ont été produits à l’étranger sans être soumis à un impôt correspondant. Ainsi, le marché indigène se trouve sur un pied d’égalité. A l’inverse, lors de l’exportation de produits indigènes soumis à une taxe sur le CO2, celle-ci est remboursée. La compétitivité de ces produits à l’étranger doit ainsi être renforcée. Les MAF ont pour conséquence une augmentation des prix sur le marché intérieur, car ils s’orientent sur les coûts de production locaux plus élevés, alors que les exportations des produits similaires sont « subventionnées » par l’Etat. L’ajustement à la frontière poursuit deux objectifs. Le premier, d’ordre économique, consiste à garantir la compétitivité des produits indigènes autant sur le marché national (MAF à l’importation) que sur les marchés d’exportation (MAF à l’exportation). Le second, d’ordre environnemental, consiste à éviter, grâce aux MAF à l’importation, que les industries indigènes particulièrement concernées par des mesures climatiques se délocalisent vers les pays qui n’ont pas le même régime fiscal (phénomène nommé « carbon leakage ») et contournent ainsi l’objectif global de réduction de CO2. Le remboursement de la taxe sur le CO2 à l’exportation enterre toutefois l’objectif environnemental, car une taxe qui est remboursée échoue à atteindre l’effet souhaité. Les MAF sont donc essentiellement des instruments économiques destinés à mettre en œuvre les mesures environnementales au niveau national de la manière la plus neutre possible sur le plan de la concurrence, même au détriment de l’environnement si nécessaire. Les MAF permettent d’exercer indirectement une pression sur les pays qui n’ont pas de régime climatique pour qu’ils élaborent un système climatique équivalent avec leurs propres règles, afin que suffisamment de pays puissent limiter efficacement leurs émissions, afin d'éviter le « parasitisme » et atteindre leurs objectifs en matière de climat. Chapitre 6 - Le développement durable Rapport BRUNDTLAND : « un développement qui répond aux besoins du présent sans compromettre la capacité des générations futures de répondre aux leurs » (1987). Nous allons voir comment la notion de développement soutenable est apparue au cours des 30 dernières années. Les économistes se divisent autour de cette notion : les théoriciens néoclassiques élaborent des modèles de croissance durable censée répondre à cet enjeu ; alors que l’économie écologique rejette cette perspective et cherche à définir les limites à l’extension de la sphère marchande. Enfin, un troisième ensemble de travaux, assez hétérogène, met davantage l’accent sur les questions sociales soulevées par la problématique du développement soutenable. 6.1. Le développement soutenable : au moins 30 ans de débats En 1972, le club de Rome publie le rapport Limits to growth rédigé par MEADOWS et toute son équipe du MIT. Modèle à partir de cinq paramètres : population, production alimentaire, industrialisation, pollution et utilisation des ressources naturelles. Ce modèle aboutit un cercle vicieux dans la mesure où l’augmentation du nombre d’individus sur la planète qui consomment et polluent de plus en plus dans un monde fini entraîne une détérioration des ressources naturelles. Ce rapport s’inspire de la thèse de l’état stationnaire (RICARDO et surtout MILL) et du malhtusianisme, MEADOWS expliquent que la population et le capital sont les seules grandeurs qui doivent rester constantes dans un monde en équilibre. Toutefois, la croissance doit se poursuivre dans les pays du Sud pendant env 15 ans alors qu’elle doit cesser dans les pays du Nord de manière à réduire les inégalités. Limites : manque de données empiriques, malthusianisme En 1972, première conférence des Nations unies sur l’homme et son milieu à Stockholm. Le slogan : « une seule terre ! ». C’est le titre du livre de WARD et DUBOS, un rapport préparatoire : les deux auteurs constatent un déséquilibre entre le la dynamique de la technosphère (le système mondial d’innovations techniques, d’investissement et d’échanges commerciaux) et celle de la biosphère ; ils constatent aussi une mauvaise répartition des richesses. Ils veulent donc définir de nouveaux modèles de comportements collectifs. Mais, l’unité de la planète n’est pas au rendez-vous : des divergences entre l’Est et Ouest avec l’absence d’Union soviétique; mais aussi une opposition entre les pays du tiers-monde et les pays industrialisés. Slogan des pays du sud : « notre pollution, c’est la misère » C’est à l’occasion de cette conférence est créé le programme des Nations unies pour l’environnement (PNUE) L’écodéveloppement : en 1973, STRONG lance ce terme. Il s’agit d’une voie moyenne à égale distance des propositions extrêmes des malthusiens ( le rapport MEADOWS) est de celles des chantres de l’abondance illimitée de la nature. Le PNUE, le club de Rome vont beaucoup utiliser cette notion jusqu’au début des années 80. En 1976, dans le troisième rapport au club de Rome coordonné par TINBERGEN : les ressources naturelles, techniques et scientifiques qui deviendraient patrimoines communs de l’humanité. Notion marginalisée au début des années 80 au profit de la notion de développement durable. Le rapport BRUNDTLAND (1987) : création de la Commission mondiale sur l’environnement et le développement (CMED) en 1983, un groupe de travail, placée sous la présidence de la première ministre de la Norvège, Mme BRUNDTLAND, publie un rapport en 1987 notre avenir à tous. Il définit les trois piliers du développement durable : la durée du développement ; l’équité sociale entre les générations et à l’intérieur des générations ; respect des systèmes naturels qui nous font vivre. Recommandations : des comportements plus respectueux de l’environnement, limitation de la croissance démographique, des stratégies nationales de conservation des espèces et des écosystèmes. Le sommet de la Terre de Rio (1992) : la conférence des Nations unies sur l’environnement et le développement se tient à Rio de Janeiro en 1992, soit 20 ans après celle de Stockholm. C’est le véritable lancement médiatique de la notion de développement soutenable. La déclaration de Rio reprend en préambule celle de Stockholm et lui donne de nouveaux prolongements. Une comparaison entre les deux textes est intéressante : la question démographique y est moins préoccupante ; les référence à la nature et à l’épuisement des ressources naturelles ont presque disparu ; le recours à la planification pour concilier divers objectifs à lui aussi disparu. Mise en place d’un plan d’action baptisé agenda 21 : une centaine d’actions à entreprendre pour que le développement soutenable devienne une réalité. Deux conventions cadres sont signées deux : une sur le changement climatique ; une sur l’érosion de la biodiversité. Une troisième convention qui vise à lutter contre la désertification adoptée en 94. Le sommet de Johannesburg (2002) : il insiste davantage sur le pilier social de la soutenabilité et de mettre l’accent sur la pauvreté et son cortège de précarité. Néanmoins, les résultats sont très minces. La déclaration finale du sommet ne fait que reprendre les déclarations précédentes. Le plan d’action ne comprend que des engagements chiffrés assez flous. Plus de 200 partenariats ont été annoncés entre les gouvernements et des acteurs privés pour la mise en œuvre de l’agenda 21. Mais il s’agissait souvent de mesures disparates sans procédure d’évaluation et des actions promotionnelles. Après huit ans de négociations, le protocole de Kyoto est entré en vigueur en 2005, mais plusieurs problèmes : quelles suites donner à cet accord ; les Etats-Unis ont refusé de le signer. Outils pour la mise en place : un commerce de permis d’émissions entre pays industrialisés qui est entré en vigueur en 2008 ; l d’investissements directs pauvres en carbone réalisé par les pays industrialisés dans les pays en transition ; le mécanisme de développement propre qui porte sur des projets mais localisés dans les pays du Sud pour réduire les émissions de gaz à effet de serre.La Convention sur la diversité biologique a plusieurs objectifs : appliquer des mesures incitatives pour la conservation de la diversité biologique ; mettre en place des mécanismes et instruments permettant l’accès aux ressources génétiques et le partage juste et équitable des avantages qui en sont retirés. Pour y arriver, la convention fait des droits propriétés des instruments de valorisation et de protection de la diversité. Ex : les droits des communautés autochtones et locales détentrices de connaissances ou de pratiques relatives à la diversité biologique. Limite : es négociations sur la biodiversité marquent le pas puisque les Etats-Unis aussi n’ont pas signé. 6.2. La confiance de la théorie standard dans la croissance économique Modèle de SOLOW de la croissance équilibrée publiée en 1956 « a contribution to the theory of economic growth » dans le Quarterly journal of economics : si on fait un certain nombre d’hypothèses sur la fonction de production, alors le système tend vers un état stationnaire, où toutes les variables croissent au même taux constant g, quel que soient le capital initial par unité de travail ou par tête. Le modèle de SOLOW ne tient pas compte des contraintes causées par la nature. Toutefois, il aborde cette question dans un article de 1992 (« an almost step toward sustainability ») : pour que le bien-être économique des générations futures soit, au minimum, égale à celui des générations précédentes, il faut que, moyennant un taux d’épargne suffisamment élevée, le stock de capital à disposition de la société reste intact d’une génération à l’autre. Il existe une substituabilité entre ses différentes formes de capital : équipement, connaissances, compétences, mais aussi de ressources naturelles… Si la génération présente consomme des services environnementaux et des ressources naturelles, elle laisse en contrepartie aux générations futures davantage de capacité de production créée par les hommes. Le « capital naturel n’est donc pas indispensable ». SOLOW reconnaît quelques exceptions de ressources naturelles « uniques et irremplaçables » comme le Parc Yosemite ou le Lincoln Memorial. SOLOW inscrit sa réflexion dans le cadre de la tradition initée par HOTELLING en 1931 (« the economics of exhaustible resources » in Journal of Political Economy) Cette théorie dite de la « soutenabilité faible » nécessite la réalisation de plusieurs hypothèses : (i) le progrès technique doit fournir un ensemble de techniques permettant de remplacer l’épuisement des ressources naturelles et la destruction des services environnementaux ; (ii) les rentes procurées par l’exploitation des ressources naturelles soient réinvesties dans du capital technique ; (iii) Les préférences des générations futures devront s’accommoder de la substitution entre les différents types de biens et de services ; (iv) Un certain nombre d’informations sont nécessaires pour que les agents puissent faire leur choix dans des contextes marqués par l’incertitude (v) SOLOW insiste sur la nécessité d’une intervention raisonnable des pouvoirs publics dans le domaine des innovations techniques et dans celui de la production d’informations en matière de réserves de ressources naturelles. Dans un article de 1979 « Scarcity and growth revisited » in KERRY, SMITH, Scarcity and Growth reconsidered, BARNETT propose des résultats empiriques sur le cas des Etats-Unis qui confirment la thèse d’une soutenabilité faible : la substituabilité entre les ressources naturelles qui se raréfient et celles qui sont abondantes s’est parfaitement réalisée ; l’accumulation des connaissances, des compétences et des savoir-faire acquis dans les domaines concernés a joué un rôle important ; équité intergénérationnelle, mesurées en termes de disponibilité de ressources et de productivité, a été respectée. On voit ainsi que dans cette thèse il y a peu de contraintes du point de vue des ressources naturelles qui pèsent sur le système économique : réaffirmation du primat de la croissance, confiance dans le progrès technique et le jeu des prix, rôle des pouvoirs publics dans les domaines jugés stratégiques pour les prises de relais entre les différentes formes de capital. Les théoriciens de la croissance endogène soulignent le rôle de 4 facteurs qui génèrent des externalités positives (C’est-à-dire que le bénéfice privé est inférieur au bénéfice social) qui favoriseraient le développement durable : (i) les synergies dans l’accumulation du capital physique (ROMER) : l’investissement en capital physique d’une firme avancement pour effet d’accroître sa propre production mais aussi d’accroître la productivité des autres firmes par un phénomène d’apprentissage par la pratique ; (ii) la recherche développement (ROMER) : la croissance économique résulte d’une activité d’innovation, engagée par des agents qui espèrent en tirer un profit ; (iii) l’accumulation de capital humain (LUCAS), lequel est défini comme le stock de connaissances mémorisables économiquement et incorporer aux individus ( qualification, état de santé…) ; (iv) L’effet des infrastructures publiques ( routes, ponts) sur le capital privé (BARRO) : les investissements publics influents positivement sur la productivité du secteur privé, par exemple, une route bien construite permet un chauffeur d’éviter les détours par les routes secondaires est d’amener plus vite ses produits au marché. Mais la présence d’externalité positive peut mener à une situation sous-optimale et le progrès technique risque d’être insuffisant. L’État doit favoriser l’internalisation des externalités. Par exemple, l’État peut inciter les innovateurs à accroître leur effort, en renforçant la législation sur les brevets ou en encourageant la coopération entre firmes. Croissance nécessaire et suffisante (La courbe de KUZNETS environnementale) : L’idée avancée depuis les années 1970 par certains néoclassiques que la poursuite de la croissance va dans le sens de la protection environnement n’a cessé de prendre de l’importance. GROSSMAN, KRUEGER, BECKERMAN font partie de cette école (cf. supra). Mais, cette perspective se heurte à plusieurs problèmes : (i) article de 2002 « reexamining the empirical evidence for an environmental Kuznets curve », in the Review of economics and statistics, HABBAUGH, LEVINSON et WILSON ; (ii) les politiques publiques jouent un rôle central. GROSSMAN et KRUEGER le reconnaissent dans leur article de 1993 ; (iii) les réductions de pollution enregistrées peuvent être contrebalancées par des augmentations dans d’autres domaines ou provenir du transfert des industries les plus polluantes vers d’autres lieux ! La confiance dans la régulation par les prix : pour les néoclassiques, les prix sont essentiels puisqu’ils permettent d’établir une concurrence parfaite, une allocation optimale des ressources grâce notamment à la substitution entre diverses techniques et ressources. Mais de nombreux objets environnementaux, que ce soit des ressources naturelles ou des pollutions, n’ont pas de prix et ne font pas l’objet d’un échange marchand. D’où la nécessité de leur donner un prix et en leur attribuant des droits de propriété : - La taxe : les pouvoirs publics doivent envoyer un signal prix aux agents économiques sous la forme d’une taxe correspondant aux dommages infligés à l’environnement. - Droits de propriété : ALCHIAN, DEMSETZ, « the property right paradigm, in Journal of economic history, 1973 : s’inspirant de COASE, ils annoncent que, au cas où il n’y aurait pas de coûts de transaction, et au cas où les droits de propriété sur les ressources sont clairement spécifiés, parfaitement exclusifs et transférables, leur échange doit permettre à l’ensemble des coûts et bénéfices des activités économiques d’être internalisé, et la poursuite de l’intérêt individuel ne doit pas entrer en conflit avec la recherche de l’intérêt général. L’État doit alors définir correctement ses droits de propriété sur l’environnement et laisser faire les individus qui savent mieux que quiconque où sont leurs intérêts et oeuvrent donc pour le bien-être de la collectivité. La question des indicateurs macro-économiques : SOLOW (« an almost step toward sustainability », 1992) : Il faut utiliser le produit intérieur net ajusté et pas le PIB puisque le premier intègre l’amortissement. Ainsi, à chaque période, le produit intérieur net ajusté indique le niveau maximum de consommation possible pour une société. Conclusion : La théorie néoclassique prônent essentiellement l’accumulation du capital, une extension du domaine de la régulation marchande aux biens environnementaux et aux pollution et une intervention de l’État réduite au soutien de ces politiques de marchandisation de l’environnement. Idée centrale : c’est en renforçant la logique économique dominante que les pollutions et d’épuisements des ressources naturelles se résoudront. Le progrès technique et la substitutabilité des formes de capital sont au cœur de l’appareillage intellectuel. 6.3. Le développement soutenable : grâce à une économie écologique ? Après la crise économique de 29, la question d’un développement soutenable passe au second plan et réapparaît à la fin des années 1960 : nombre d’économistes s’inquiètent alors des conséquences environnementales. L’économie écologique regroupe ainsi les différents économistes qui recherchent une économie pour l’environnement. Deux grandes options politiques : l’économie écologique qui cherchent à bâtir des institutions publiques susceptibles de faire respecter des limites à l’exploitation de la nature ; l’écologie industrielle qui fait confiance aux entreprises pour élaborer de nouvelles normes 6.3.1. L’écologie écologique : encadrer le capitalisme par des limites biophysiques Idée : l’environnement constitue désormais le facteur limitant du développement économique, alors que, pendant longtemps, c’est le capital qui l’a été. Certains auteurs mettent l’accent sur la dimension écologique des ressources naturelles ; d’autres sur les dimensions institutionnelles. L’accent mis sur les dimensions biophysiques de l’activité économique : GORGESCU-ROEGEN dans The entropy law and the economic process (1971) : ils s’inspirent de la thermodynamique pour dénoncer les effets néfastes du capitalisme sur l’environnement. En thermodynamique, deux principes : il y a conservation de la quantité d’énergie (rien ne se perd, rien ne se crée, tout se transforme) ; il y a dégradation qualitative de l’énergie dès que l’on met en œuvre un processus de transformation énergétique. Ainsi, lorsqu’on applique ces principes à l’économie, il ressort que à mesure que l’homme utilise l’énergie des ressources naturelles, celle-ci prend des formes de plus en plus inutilisables pour l’homme. Il donne l’exemple des particules de commun sur la route laissée par les pneus des automobiles qui n’ont pas disparu mais qui deviennent inutilisables. Une nécessaire complémentarité entre les différentes formes de capital : contre une vision en termes de substituabilité entre les différentes formes de capital, l’économie écologique croit plutôt en une complémentarité. En effet, si le capital technique nécessite du capital naturel pour être fabriqué, il en nécessite aussi pour fonctionner La référence aux modèles bioéconomiques : le courant de l’économie écologique ne croit pas en la solution d’une internalisation des externalités contrairement aux néoclassiques. PEARCE souligne aussi que la solution néoclassique suppose de constater d’abord des externalités pour lutter contre les dommages environnementaux. Or, le constat des dommages environnementaux peut parfois arrivé trop tard et certains seuils écologiques critiques sont déjà franchis. La solution néoclassique ne permet donc pas de lutter complètement contre la pollution ( « the limits of cost-benefit analysis as a guide to environmental policy », in Kyslos, 1976) C’est la raison pour laquelle des modèles bioéconomiques sont proposés de manière à limiter la surexploitation des ressources naturelles. l’économique s’insère dans la sphère des activités sociales, qui elles-mêmes s’insèrent dans la biosphère. L’objectif est alors d’atteindre un rendement soutenable maximum. Ex : C’est le cas aussi dans la surpêche : au début du XXe siècle, l’idée répandue est que les ressources sont inépuisables. Mais en I siècle le point de vue change : en 1949, une Commission et une Convention internationale des pêches de l’Atlantique du Nord-Ouest est créée dans le but d’assurer une gestion saine des stocks de poissons. Dans la convention de 1949, 1 objectif de rendement maximum soutenable est fixé. A partir des années 70, sur la base d’indicateurs récurrents de surpêche, les états reprennent la main dans le contrôle des ressources en instaurant des zones économiques exclusives situées dans les 200 milles marins. Malgré ces dispositifs, on estime que 70 % des stocks pêchés commercialement sont en situation de sur exploitation d’après la FAO Limite : les modèles sont obtenus dans un cadre statique, avec une hypothèse de parfaite connaissance du stock de ressources disponibles, ce qui est rarement vérifié dans la réalité. pour DALY, des règles minimale de prudence doivent être communes à l’ensemble des formes de capital naturel (1990, « Towards some operational principles of sustainable development », in Ecological Economics) : (i) le taux de prélèvement des ressources naturelles renouvelables doit être égal au taux de régénération ; (ii) les taux d’émissions des déchets doivent être égaux aux capacités d’assimilation et de recyclage des milieux dans lesquels ils sont rejetés ; (iii) l’exploitation des ressources naturelles non renouvelables doit se faire à un rythme égal à celui de leur substitution par des ressources naturelles renouvelables. Des conventions d’environnement dans des situations en « univers controversé » : GODARD dans « Stratégies insdustrielles et conventions d’environnement : de l’univers stabilisé aux univers controversés », in Environnement, économie (1993), l’incertitude qui règne sur l’expertise scientifique conduit tous les hommes politiques à prendre des décisions parfois éloignées des recommandations scientifiques: « une convention d’environnement », issue de négociations, se met en place en constituant un accord en matière de diagnostic, d’instruments et d’objectifs à atteindre. Ex : l’exemple des pluies acides en Europe. Lors de la conférence de Stockholm en 1972, l’expression « plus acide » marque les esprits car elle a pour conséquence notamment l’acidification et la mort biologique à terme de milliers de lacs. Dans les années 80, en Allemagne, on s’en émeut. Deux thèses scientifiques s’affrontent : les émissions de dioxyde de soufre qui proviennent de la production de charbon et les émissions d’oxyde d’azote issues des moteurs automobiles. La thèse sur l’émission d’oxydes d’azote l’emporte car les constructeurs automobiles y voient une manière de faire du profit en obligeant les automobilistes à acheter des pots catalytiques. Or, au début des années 90, on se rend compte que cette thèse n’était pas forcément la bonne solution. 6.3.2. L’écologie industrielle : une modernisation écologique du capitalisme ? L’écologie industrielle propose une voie différente pour concilier économie et écologie que l’économie écologique : dans un texte qui fait référence (« Des stratégies industrielles viables », in pour la science (1989) FROSCH et GALLOPOULOS veulent engager le système industriel dans une réforme profonde de ses pratiques environnementales pour qu’elles soient plus respectueuses de l’écosystème. La diffusion et l’institutionnalisation de l’écologie industrielle se forge au cours des années 1990 grâce au relai apporté par les entreprises de consultants. Elle se développe notamment au sein d’organisations internationales comme le PNUE. Copier la nature : A nouveau, l’idée est que le système industriel fonctionne comme la nature. Pour ce faire, on peut recourir à l’écoénergétique : elle mesure les flux énergétiques entrant et sortant d’un écosystème, ce qui permet de décrire le métabolisme du système et notamment de mesurer la productivité énergétique. L’écologie industrielle a appliqué ce principe à différentes activités économiques : PIMENTEL montre par exemple que l’accroissement de la productivité agricole a été obtenu aux Etats-Unis grâce au recours à des quantités croissantes d’énergie fossile et que son rendement énergétique a diminué sur la période des 30 glorieuses. La part de l’agriculture représente ainsi un quart de l’énergie consommée aux EtatsUnis (un pays qui, avec moins de 5 % de la population mondiale, consomme un quart de l’énergie fossile dans le monde) (« Food production and energy analysis », Science, 1973). Une fois métabolisme industriel identifié, l’écologie industrielle se donne pour objectif de fabriquer un écosystème industriel soutenable. FROSCH (« l’écologie industrielle au XXIe siècle », in pour la science, 1995). donne l’exemple d’un écosystème industriel modèle, celui de la zone industrielle de Kalundborg : il s’agit d’un écosystème où les déchets des uns servent à la production d’autres. Ex : une raffinerie qui utilise la chaleur perdue par une centrale thermique, vend le soufre extrait du pétrole à une usine chimique… Une main invisible verte : L’exemple de Kalundborg est prisé par les écologues industriels car il soutient l’idée qu’une main invisible verte permettrait aux systèmes industriels de se muer en un écosystème respectueux de l’environnement. On ne s’est rendu compte des vertus environnementales de cette zone industrielle qu’une trentaine d’années après sa création. Si les écologues industriels croient à cette main invisible verte, c’est parce qu’il considère qu’en poursuivant leur intérêt privé, les organisations productives répondent à l’intérêt général. Des normes de gestion pour une auto réglementation : la croyance d’une autorégulation s’accompagne d’un refus des normes publiques au profit de normes privées que les entreprises appliqueraient d’elles-mêmes. L’autoréglementation est jugée plus efficace que la contrainte publique puisqu’elle suppose l’adhésion volontaire des entreprises et est censé assuré la transparence des procédés mis en œuvre. Dès lors, les entreprises utilisent différents outils pour avoir une politique environnementale transparente : - les normes privées comme ISO ( organisation internationale de la standardisation créée en 1947 qui a pour but de produire des normes industrielles & commerciales utilisé dans de très nombreuses organisations publiques et privées- il s’agit aujourd’hui de la plus grande agence de normalisation au monde qui a un statut d’O.N.G. - il y a par exemple la norme ISO 14 000 qui porte sur les normes environnementales) ; - les labels ( max haavelar…) ; - les activités de reporting (Le Global Reporting Initiative (GRI) a été établi vers la fin 1997 avec comme mission de développer les directives applicables mondialement en matière de développement durable, ainsi que de rendre compte des performances économiques, environnementales, et sociales, initialement pour des sociétés. Néanmoins, cette autoréglementation pose problème. Certains outils sont inefficaces. Par exemple, dans les opérations de reporting, la vérification porte de non pas sur les normes que choisissent les entreprises, mais de sur les procédures qu’elles mettent en œuvre pour les appliquer. Dès lors, elles choisissent souvent des normes environnementales ou sociales qui sont présentes dans la réglementation publique sans aller plus loin. 6.4. Le de développement soutenable : un autre développement ou l’après développement ? Un ensemble de travaux met l’accent sur les questions sociales soulevées par la problématique du développement durable. Ces analyses s’interrogent sur la question du non développement ou d’un autre développement différent de celui des sociétés occidentales. 6.4.1. Courant de « la répartition environnementale » Joan MARTINEZ-ALIER. Il s’interroge sur ce qu’il appelle « la répartition écologique », c’est-à-dire la manière dont les dommages environnementaux se répartissent entre eux les pays industrialisés, et les pays pauvres. Il avait inscrit donc la question de la pauvreté au cœur de l’enjeu de la soutenabilité : - Il veut montrer que la pauvreté n’est pas qu’une menace pour l’environnement, mais aussi qu’il y a dans les pays pauvres une volonté de lutter contre les dommages environnementaux. Ex : Chico Mendès. Bref, il existe aussi « un écologisme des pauvres » comme l’indique le titre de son ouvrage the environmentalism of the poor (2002) . - « d’échanges écologiquement inégal » qui élargit les perspectives ouvertes par Emmanuel (Pour ce dernier, les inégalités de salaires versés aux travailleurs des différents espaces économiques permettent que des quantités égales de travail ne soient pas payées au même prix par les acteurs participant à l’échange international). Ici, les produits exportés par des pays pauvres à des prix qui ne couvrent pas les coûts sociaux et environnementaux induits par leur production. En fait, les pays pauvres sont contraints au dumping environnemental et social en exportant à bas prix des ressources naturelles ou des produits de base vers les pays du Nord. On peut citer les activités d’extraction de minerais, de transformation des forêts en pâturages ou pour la production de café. L’idée d’ « échange écologiquement inégal » éclaire l’instauration de permis d’émissions de CO2 négociable dans le cadre de la prévention contre le changement climatique ou du commerce international et dans le cadre de la convention sur la diversité biologique. Les pays du Sud pourraient être incités à vendre leurs droits à bas prix et donc à devoir prendre en charge les dommages environnementaux des pays du Nord. L’exemple de la régulation des pêches est intéressant pour comprendre les effets redistributifs des politiques internationales concernant le changement climatique et la biodiversité. MONGRUEL et PALSON ont étudié le cas de la morue dans « le propriétaire, l’exploitant, le salarié est exclue : les conséquences sociale de la gestion des pêches par des systèmes de marché de droits », revue tiers-monde (2004) : ils montrent que le système des marchés de droits, instauré en Islande en 1984, a entraîné une diminution du nombre d’acteurs en présence et une concentration dans les mains d’un petit nombre d’acteurs intégrés verticalement. En cause, la possibilité pour certaines entreprises de pêche qui se sont vues allouer des quotas de les louer à d’autres acteurs plus modestes. Les premiers peuvent alors se désengager complètement des risques encourus par l’activité de pêche. De leur côté, les pêcheurs qui vont en mer et achètent des quotas baissent les salaires des marins pêcheurs pour maintenir leurs profits. Le droit de pêche est donc un nouveau facteur de production, au même titre que le capital et le travail. 6.4.2. Demain la décroissance ? Cette notion oppose des conceptions différentes : - D’une part, des auteurs qui en appellent à rejeter l’idée même de développement. C’est le cas de LATOUCHE : dans « développement durable : un concept alibi. Main invisible et mainmise sur la nature », in Revue tiers-monde (1994), accuse la notion de développement d’être un « concept alibi » qui masque l’occidentalisation du monde et la marchandisation des rapports. Ce serait le « dernier gadget idéologique de l’occident ». Il s’agirait même du comble de l’idéologie car il doit faire durer le développement. Pour les tenants de cette approche, il faudrait plutôt parler de «décroissance durable » ou de « convivialité ». - D’autres auteurs comme HARRIBEY font appel à la notion de développement soutenable pour réinventer une autre manière de se développer. Avant de décélérer la croissance, il conviendrait de réduire les inégalités éco entre les pays riches et pauvres en aménageant une période de rattrapage pour ces derniers. Dans la convivialité (1973), ILLICH développe l’idée que “ la religion de la croissance” légitime un projet technicien qui vise à ce que la fabrication industrielle de l’existence (monde hétéronome) remplace l’invention de la vie par les individus eux-mêmes (mode autonome). Pour reprendre ses termes, un mode de production hétéronome ( La production industrielle) se substituterait au mode autonome ( la production par les individus) car il est plus efficace. Mais cette efficacité n’est pas durable : il arrive une situation où le mode hétéronome devient contreproductif : l’école rend bête, la médecine rend malade… Dès lors, l’individu, privé de ressources, n’a pas d’autre ressource que de se tourner vers encore davantage l’industrie. Il s’ensuit un cercle vicieux où l’autonomie de l’individu se réduit continuellement. Pour donner un exemple, DUPUY dans “nemesis de l’économie” in ordres et désordres. Enquête sur un nouveau paradigme (1982) s’est livré à un calcul : il constate que le cadre moyen d’une ville du roule 16 000 km par an consacre à sa voiture en moyenne plus de 4h00 par jour (entretien, conduit, travail pour se la payer). Chaque heure de ce temps et permet donc de parcourir 10 km. Or, si l’individu remplaçait sa voiture par une bicyclette, il passerait moins de temps (contradiction : la voiture ralentit au lieu de faire gagner du temps)` ILLICH fait appel à un programme de “ convivialité” : la convivialité doit être entendue au sens d’une société où l’homme contrôle des outils qui l’entourent. Cet équilibre à trouver doit être le fruit de délibération populaire. Dans métamorphoses du travail. Critique de la raison économique ( 1988), André GORZ insiste lui aussi sur l’idée d’une norme du suffisant pour que les individus aient plus de temps libre. En effet, la société de consommation oblige les individus à travailler de plus en plus car (i) ils ont été dépossédés de leur outil de production de telle sorte que la valeur du travail a changé de sens : d’une norme du suffisant, elle est devenue un moyen de gagner un salaire. (ii) Les individus ont été encouragés à consommer en raison de la publicité et du fait que, en travaillant davantage, les individus ont dû acheter des produits industriels. Or, pour acheter ces nouveaux biens, ils ont dû travailler davantage ; ceci d’autant plus que le niveau des salaires a baissé. Le temps libéré doit permettre une autonomie des individus, de l’autoproduction, la constitution de réseaux, de solidarité, de coopération, d’investissement dans le champ du politique. 6.5. Quels indicateurs de développement durable choisir ? 5 familles d’approches : - Tableaux de bord du développement durable qui combine un grand nombre d’indices (jsuqu’à plus d’une centaine) essayant de couvrir les trois dimensions du DD : éco, social et environnemental. Ce courant est fortement inspiré du rapport Brundtland et du dispositif de l’agenda 21 mis en place lors du sommet de rio en 1997. Limite : trop de données qui les rendent peu lisibles. Il faut plutôt les utiliser comme des bases de données. - Indicateurs composites : il s’agit d’additionner des éléments hétérogènes avec des jeux de pondération Limite : il est très difficile de proposer en un chiffre l’état global de la soutenabilité ou de la durabilité du développement. Le rapport STIGLITZ a énoncé une critique similaire : On ne peut pas faire tenir à la fois le présent et le futur dans un seul chiffre là où il en faudrait au moins deux : l’un qui nous indique où on se situe à chaque date en termes de développement ou de niveau de bien-être - Elaboration d’un PIB vert : il s’agit d’un PIB que l’on tente de corriger pour prendre en compte un certain nombre d’atteintes à l’environnement en retranchant par ex les coûts auxquels la collectivité fait face pour maintenir constant l’état de l’environnement Limite : la même que pour les indicateurs composites. Ex : si l’on sait que le PIB vert représente 90% du PIB standard, qu’est-ce que ca nous dit de la soutenabilité de l’économie ? - « épargne véritable » ou « épargne ajustée » ou « richesse étendue » : il s’agit de valoriser monétairement le capital naturel, le capital humain et le capital physique. Lim : si l’on peut monétiser le capital physique (par l’épargne nette) , le capital humain (par les dépenses d’éducation), difficile d’évaluer le capital naturel. - Indicateurs spécifiquement dédiés à la dimension environnementale : ex empreinte écologique. Lim : trop environnementaliste et pas assez éco Le rapport STIGLITZ propose une réflexion globale sur ces différents types d’indicateurs et formule les recommandations suivantes : - la dissociation entre mesures du bien-être courant et mesure(s) de la soutenabilité. - La mesure de la soutenabilité doit intégrer les 3 dimensions du DD au sens du rapport BRUNDTLAND : les dimensions économiques, sociales et environnementales. La durabilité de ce développement dépend de l’accumulation ou de la préservation du capital économique et financier, capital humain et social, et capital naturel - Il faut rechercher des indicateurs d’évolution de ces différents facteurs ou vecteurs de la soutenabilité. - Le rapport a retenu qu’il était éven- tuellement possible d’envisager une agrégation assez poussée pour les composantes les plus facilement monétarisables de la soutenabilité, le capital productif et le capital humain. Mais le rapport n’a pas suivi l’idée d’agrégation globale adoptée par les tenants de l’épargne nette ajustée, considérant que la base théo- rique et empirique était trop faible pour permettre de rendre commensurables des variations de capital économique et de capital environnemental. Chapitre 7 – Comment définir la valeur tutélaire du carbone ? Pour une approche de l’équité intergénérationnelle 7.1. Prix de marché/prix réglementé (analyses coûts/avantages – avantages coûts/efficacité) La Commission Quinet a intitulé son rapport « la valeur tutélaire du carbone », in CAS, 2007. Ce rapport remplace le rapport boiteux de 2001 qui avait introduit un référentiel carbone destiné à évaluer la rentabilité des choix d’investissement dans les transports. Plusieurs manières de fixer la valeur tutélaire du prix du carbone, ie le prix de la tonne de carbone : - Prix de marché qui résulte de la confrontation de l’offre et de la demande su le marché des permis d’émission de gaz carbonique. Actuellement, entre 6 et 8 euros par tonne mi-2012 dans les SCEQE. - Prix réglementé : cette valeur est le fruit d’un compromis raisonné entre multiples acteurs (partenaires économiques et sociaux). C’est dans cette dernière perspective que la commission Quinet a élaboré le prix du carbone. Deux méthodologies possibles : Analyse coût-avantage (rapport STERN) : l’efficacité commande de minimiser le coût complet du changement climatique – constitué des coûts d’abattement des émissions et du coût des dommages résiduels – et d’en déduire la trajectoire optimale des émissions. Cette approche conduit à assurer à tout moment l’égalité entre le coût marginal des dommages associé à l’émission d’une tonne supplémentaire de CO2 dans l’atmosphère et le coût marginal de réduction des émissions de CO2. Ce principe constitue le socle de l’analyse coûts/avantages. L’égalisation des coûts marginaux permet de dégager une quantité optimale d’émission Q* et le prix qui lui est lié p*. La valeur tutélaire du carbone est celle qui minimise le coût complet du changement climatique. Une limite : incertitudes qui pèsent sur ces courbes des dommages et des coûts d’abattement, dont on ne connaît précisément ni les pentes ni les positions. Ces incertitudes renvoient de manière concrète à l’appréciation du progrès technique, des élasticités-prix, au lien entre températures et dommages. L’introduction de l’incertitude sur ces deux courbes entraîne une nouvelle incertitude sur le bon niveau de réduction et sur le bon niveau de prix à introduire dans le système marchand. - Approche coût-efficacité (approche QUINET) : elle consiste à définir ex-ante un objectif de réduction des émissions défini dans les plages de valeurs raisonnables issues de l’analyse coûts/avantages. L’analyse économique peut, une fois l’objectif défini au niveau politique, prendre en compte cette cible et travailler sur le seul volet coûts/efficacité. La valeur d’équilibre dépend principalement de deux variables : (i) le niveau des objectifs de réduction des émissions ; (ii) les technologies disponibles pour réduire les émissions. Moins l’objectif de réduction est ambitieux, plus la valeur du carbone nécessaire est faible. De même, plus les technologies sont performantes, plus les coûts marginaux d’abattement sont faibles, plus faible également est la valeur nécessaire du carbone. Au final, La valeur tutélaire est alors égale au prix du carbone qui permet d’atteindre les objectifs fixés. C’est l’approche de QUINET ( une valeur de 32 euros la tonne en 2010, 56 euros en 2020, 100 euros en 2030 et 200 en 2050) Lim : (i) elle prend au sérieux les engagements nationaux et internationaux de réduction des émissions, qui sont pourtant susceptibles de varier ; (ii) elle nécessite de faire des hypothèses précises sur le développement des nouvelles technologies plus sobres en carbone, ce qui constitue une autre source d’inquiéturdes. Les membres de la commission quinet d’ailleurs recommandent d’actualiser la valeur tutélaire tous les 5 ans en fonction des nouvelles infos dispo sur ces deux sujets. 7.2. Le rapport STERN : une analyse en termes de coûts/avantages En 2006, Nicholas STERN remet un rapport au gouvernement britannique publié dans l’ouvrage The economics of the climate change : the stern review : adhérant à un principe de précaution, ce rapport propose de financer très rapidement la dépollution pour éviter que les coûts liés aux dommages marginaux ne soient trop insupportables pour l’économie mondiale à l’avenir. Le message est simple : la logique préventive coûte moins chere que la logique curative. Un pic mondial des émissions de gaz à effet de serre (GES) devrait s’imposer au plus tard d’ici 2020 pour que l’humanité ait des chances sérieuses de stabiliser à long terme les concentrations de ces GES à un niveau de 550 ppm2 de CO2eq3. Puis les émissions devraient décroître de façon absolue à un taux annuel de 2,5 % alors que la tendance actuelle est à un accroissement annuel de 1,3 %. Pour y parvenir, un investissement de 1% du PIB mondial par an est necessaire dans la reduction des GES. Ainsi, on eviterait une perte economique comprise entre 5 et 20% du PIB mondial. A ̀ 5 %, seuls les dommages sur la production et les activités sources de revenu (en particulier l’exploitation des ressources naturelles) sont consi- dérés. L’intégration des pertes de vie humaines et des pertes écologiques(notion de services écologiques) fait plus que doubler le pourcentage. La prise en compte d’hypothèses plus extrêmes sur la sensibilité du climat et sur l’existence de rétroactions positives amplifiant les déséquilibres (émis- sions de méthane du permafrost dégelé, moindre absorption par les océans,...) font passer le coût des dommages à 14 %. Enfin, la reconnais- sance du fait que les populations les plus pauvres des pays les moins déve- loppés seront proportionnellement les plus touchées –elles dépendent davantage des conditions naturelles pour satisfaire leurs besoins élémen- taires, elles ont de moindres capacités d’adaptation et elles se trouvent objectivement situées dans des régions qui seront davantage frappées physiquement – conduit aux 20 %. Critiques du rapport STERN : - Critique du rapport STERN a porté sur le choix du taux d’actualisation faible : dans une logique prescriptive, inspirée de la règle de RAMSEY, STERN a choisi un taux d’actualisation moyen de 1,4%, de telle sorte que le même poids est quasiment donné à l’utilité de chaque génération. Or le taux d’actualisation est souvent calibré sur le taux d’intérêt. A l’inverse, dans les simulations récentes réalisées avec son modèle DICE, William NORDHAUS adopte, à la suite d’un calibrage à partir de données d’observation sur les choix en matière d’investissement, un taux initial de préférence pour le présent de 3, ce qui conduit à un taux d’actualisation de l’ordre de 4,5 % (« The Challenge of Global Warming : Economic Models and Environmental Policy », Yale University, 4 avril 2007) - Le faible taux d’actualisation peut aussi être lié aux stratégies d’adaptation des futures générations. TOL Richard [2006], The Stern review of the economics of climate change : a comment (2006) : il voit dans les stratégies d’adaptation des générations futures un tel facteur d’atténuation des dommages que seules se justifieraient des politiques de prévention très modestes. En caricaturant, ces positions sont les suivantes : la mer va monter ? Il suffit de remonter les digues. Les épidémies (malaria et autres) vont se déplacer et s’étendre ? Avec le développement économique, les populations concer- nées disposeront des médicaments nécessaires pour vacciner ou soigner tout le monde. Il y aura des sécheresses ? - Martin WEITZMAN, « on modelling and interpreting the economics of catastrophic climate change », in the Review of Economics and Statistics, 2009, souligne que le rapport STERN ne prend pas en compte l’idée qu’il puisse y avoir des catastrophes climatiques aux conséquences imprévisibles. Or, les climatologues montrent que des températures élevées peuvent aboutir à cela. Plus généralment, l’analyse coûts –avantages n’est pas adaptée à ce type de raisonnement. Il faut pour lui raisonner différemment à l’avenir et mieux intégrer les risques de catastrophe. - Katheline SCHUBERT, « Penser le changement climatique : la boîte à outils de l’économiste », in RCE, 2009 : 2 critiques de l’ACA (et par la même occasion du rapport STERN) : Le poids des incertitudes : incertitude sur l’évaluation de la courbe de coût marginal : elle dépend des substitutions qui vont se mettre en place quand les agents vont réduire leurs émissions, des changements de comportement et du progrès technique difficiles à prévoir incertitude sur l’évaluation des dommages : chiffrage difficile en raison de la faiblesse des connaissances sur ce sujet sur le plan physique et éco car on évalue mal les capacités d’adaptation des écosystèmes et des économies face à l’augmentation des températures. débat sur le taux d’actualisation : il y a un débat pour savoir si le taux doit être élevé ou bas. 7.3. Le taux d’actualisation L’existence d’un taux d’actualisation se justifie de deux manières : préférence pour le présent : idée d’impatience pour le présent. Si l’impatience pour le présent est forte, ie. Le présent est très fortement valorisé au détriment du futur, alors le taux doit être élevé. Si inversement, si infinie patience, ie préférence pour le présent faible, alors le taux doit être bas. effet de richesse : si l’on part du principe que les générations futures seront plus riches en raison d’une croissance éco soutenue et qu’elles pourront faire face plus facilement à l’environnement naturel dégradé que les générations actuelles, alors on peut opter pour un taux est élevé. Si l’on tient davantage compte de la raréfaction des ressources fossiles et de l’effet de ces ressources naturelles à long terme, on peut alors plutôt envisager des valeurs faibles. Autres enjeux et débats autour du taux d’actualisation : opposition entre « l’effet précaution » et « l’effet richesse » : l’effet richesse conduit à négliger les générations futures alors que le principe de précaution conduit à les favoriser. Dans le principe de précaution, taux plutôt élevé. L'approche descriptive, défendue par des économistes tels que Nordhaus et Dasgupta, consiste à estimer ces paramètres à partir de comportements observables. Cette approche a l'avantage de se fonder sur des préférences révélées. Ainsi, l'analyse du marché de l'épargne peut servir à estimer le taux d'actualisation. Cette approche a des limites : d'abord la courbe des taux d’intérêt ne dépasse guère 30 ans, horizon insuffisant pour juger de la pertinence de certains projets en particulier pour tout ce qui touche au développement durable. Ensuite, le sens des paramètres décrit plus haut n'est pas le même : les comportements individuels d'épargne reflètent un comportement individuel, alors qu'il s'agit en réalité de décrire des générations différentes, ou imbriquées. L'approche prescriptive consiste en revanche à déterminer les valeurs des paramètres sur la base d'un ensemble de principes éthiques. Ainsi Ramsey considère-t-il comme impensable de fixer δ�� différent de zéro, au motif qu'il ne voit aucun argument autorisant à donner un moindre poids au bien-être des générations futures. Stern (2006) suit également cette approche, et fixe δ� �= 0,1 % qui ne représente pas selon lui une pondération de bien-être intergénérationnelle en tant que telle, mais la probabilité d'extinction de l'espèce humaine. Chapitre 8 – la croissance verte AGHION, HEMOUS, VEUGELERS « quelles politiques pour encourager l’innovation verte ? », in RCE, 2009 L’innovation verte au niveau mondial est globalement assez faible. D’après l’organisation mondiale de la propriété intellectuelle, en moyenne, seuls 1,5% des brevets déposés entre 2001 et 2005 par les entreprises concernaient les technologies environnementales. Des disparités entre les pays. Deux manières de raisonner : Part des brevets environnementaux d’un pays dans le stocks de brevets environnementaux. Le Japon est de loin le 1 er pays en termes d’innovations vertes : 45% des brevets environnementaux mondiaux sur la période 2001-2005 ; 2ème : USA avec 15% puis Allemagne 9% et France très loin derrière avec 3%. Néanmoins, ce chiffre ne rend pas compte de la spécialisation environnementale des pays. Pour cela, il faut rapporter part des brevets environnementaux détenus par un pays dans le monde à la part des brevets de tous types détenus par ce même pays dans le monde. Si résultat supérieur à 1, on a une spécialisation environnementale. Dès lors, Chine au 1er rang avec 1,34, puis Japon, Canada, Corée du Sud avec 1,07, Allemagne avec 1,04 et France avec 1,03. L’Europe n’est pas au premier rang. C’est plutôt l’Asie devant. Constat confirmé par l’enquête « Community Innovation » pour l’UE27 qui founit des données sur les raisons qui poussent les entreprises à innover. Les motifs « amélioration de l’efficacité énergétique », « réduction des impacts environnementaux ou amélioration de la santé » n’apparaissent jamais comme des motifs importants. Néanmoins, qq frémissements apparaissent. Les données Dow Jones VentureSource de 2009 souligne l’intérêt croissant des capitalrisqueurs pour les énergies renouvelables depuis 2007. En 2007, 750 millions de dollards levés auprès des capital-risqueurs par des compagnies d’énergies renouvelables contre 2,5 milliards en 2008. En Europe, respectivement 250 à environ 500 millions de dollars. 4 raisons à cettte quantité insuffisante d’innovations vertes : externalités environnementales : coût privé inférieur au coût social. Externalités de connaissances : dans une situation de laisser-faire, les entreprises ont tendance à orienter leurs efforts d’innovation en direction des secteurs dans lesquels elles disposent d’une avance technologique. Elles innovent dans les domaines où elles sont déjà bonnes. La plupart du temps, il s’agit des secteurs émetteurs de CO2. Externalités positives : les entreprises rechignent à innover si elles ne peuvent pas bénéficier pleinement des retombées financières de leurs découvertes. Pb d’internalisation des externalités positives, droits de propriété, du transfert des technologies. Difficultés à accéder à des financements adéquats liés à l’incertitude (technique, commerciale) qui pèse sur la rentabilité des investissements « verts ». Contrainte d’autant plus forte que les innovations sont radicales. Comme le marché ne produit pas suffisamment d’innovations environnementales, l’Etat doit intervenir. Comment ? Le propos qui suit est tiré d’un modèle récent in ACEMOGLU, AGHION, BURSZTYN, HEMOUS, « the environment and directed technical change », NBER Working paper (2009). Modèle qui répond à trois questions : Comment le grouvernement doit-il intervenir ? Il faut essentiellement fixer un prix au carbone à travers un système de taxe ou de marché de permis ; ce prix doit permettre de lutter contre les externalités négatives en obligeant les pollueurs à internaliser le coût des dommages environnementaux qu’ils provoquent. De plus, si le prix est élevé et suffisamment prévisible à long terme, les producteurs sont incités à investir dans des technologies plus propres. De nombreuses ont montré que les innovations dans le domaine des économies d’énergie est encouragé par une hausse des prix de l’énergie. Mais le renchérissement du carbone représente un coût pour les entreprises : lorsque l’innovation se déplace des secteurs développés et donc polluants vers les secteurs jeunes et plus propres, le PIB ralentit au départ car la productivité est initialement plus faible dans les nouveaux secteurs que dans les secteurs développés. Cette perte de gains de productivité et donc de croissance a lieu tant que les nouveaux secteurs verts n’ont pas rattrapé les anciens. La solution optimale consiste donc à mettre en place une taxe carbone ou un marché des permis et des subventions directes à la RD dans les technologies propres pour nouvelles entreprises à améliorer leurs gains de productivité et rattraper plus rapidement les entreprises des anciens secteurs. Le rattrapage est d’autant plus rapide que les anciennes et nouvelles technologies sont substituables. Quand intervenir ? le plus rapidement possible. En intervenant rapidement, l’Etat peut réduire plus facilement l’écart de productivité entre les anciens secteurs et les nouveaux secteurs. S’il tarde, les anciens secteurs continuent d’accroître leur avance. Grâce à une intervention rapide, les nouveaux secteurs peuvent améliorer plus rapidement leurs gains de productivité. De plus, au cours de la période d’intervention, la croissance effective est inférieure à la croissance potentielle : retarder l’intervention a donc un coût. Les taxes sur les émissions de GES sont transitoires : elles ne valent que jusqu’à ce que les technologies vertes aient acquis un avantage suffisant. Qui doit agir ? plutôt que de taxer les facteurs polluants dans les pays du Sud, il convient de transférer un maximum de technologies propres des pays du Nord vers les pays du Sud. De cette manière, les pays du Sud peuvent imiter plus facilement les pays du Nord, d’où un cercle vertueux de croissance verte globale. Idée d’une endogénéisation du progrès technique. Qq chiffres sur les dépenses de R et D : Dans UE27, Dépenses publiques destinées au « contrôle et au souci de l’environnement » : 2,7% du total des dépenses publiques en 2005 avec un taux de croissance annuel moyen de 4,3 % entre 2000 et 2005 USA, 0,4% et un taux de croissance annuel moyen de -4,6% entre 2000 et 2005