L’idéologie du coût du travail, AOC, 4 mars 2020 [lien externe]

Le cloisonnement du débat sur les retraites est source d’inégalités, Le club Médiapart, 20 février 2020 [lien externe]

La quadrature de la fiscalité locale : équité, efficacité, autonomie, coopération, Horizons Publics, hors série été 2019, Changer le logiciel de l'action publique territoriale, 19 juillet 2019 [lien externe]

Contre les inégalités, redistribuer les revenus est nécessaire mais pas suffisant, AOC média, avec Nathalie Morel, 7 mars 2019 [lien externe]

Entre les dépenses publiques et les impôts, il y a les niches fiscales, Le Monde, 24 janvier 2019 [lien externe]

Pour des sciences sociales unies, mais pas uniformisées, 9 octobre 2018

Pour une défense du matérialisme, la Vie des idées, 27 septembre 2016. [lien externe]

Théorie Lavoisienne de la valeur appliquée au non-deal Bouygues-Orange, 10 avril 2016

Comment agir contre les inégalités ? À propos de : Anthony B. Atkinson, Inégalités (Inequality. What Can Be Done ?), Seuil, la Vie des idées, 28 mars 2016. [lien externe]

Refus de savoir, désir d'agir, 29 janvier 2016

La crise des subprimes 101, 12 janvier 2016

Introduction à la manipulation statistique, pédagogie par l'exemple, 13 novembre 2015

Le rachat de Newen et la confusion entre service public et actionnariat public, 2 novembre 2015

Assumons le dynamisme de nos métropoles, avec Philippe Martin, Le Monde, 30 juin 2015 [lien externe]

Les cinq phases du deuil des politiques publiques, 17 février 2015

Extrême recentrage, le 1 hebdo n° 42, 4 février 2015 [lien externe]

Emploi, ce que l’on pourrait faire au même prix, avec Bruno Palier et Michaël Zemmour, les Echos, 1er décembre 2014 [lien externe]

Optimisation fiscale 101, 24 novembre 2014

Le Capital et son singe, critique théâtrale par un économiste, 14 octobre 2014

Manifeste pour l'analyse néoclassique en sciences sociales, 11 septembre 2014

Dividendes record ou l’utilisation des chiffres sans les comprendre, 24 août 2014

Enseignement : compréhension des mécanismes ou injonction normative ?, 27 juillet 2014

Salaire minimum, emploi et manipulation, 12 juillet 2014

Mieux vaut taxer la rente immobilière que la production, avec Patrick Artus, Antoine Bozio et Cécilia Garcia-Peñalosa, les Echos, 5 novembre 2013 [lien externe]

Pourquoi occuper son propre appartement constitue un revenu en nature, Les invités de Médiapart, 1er octobre 2013 [lien externe]

Le bien-être du patient ne se compte pas en dépassement d’honoraires, Les invités de Médiapart, 18 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund [lien externe]

Halte aux «médecins pigeons» qui agitent le drapeau de la santé publique !, Libération, 15 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund [lien externe]

Vers un autre monde (et donc une autre science économique) ?, Journal du MAUSS, 28 juin 2011 [lien externe]

L’idéologie du coût du travail

AOC, 4 mars 2020

Il existe une idée fausse, mais tenace : l’idée que le principal déterminant du chômage est le coût du travail ; l’idée que pour régler les problèmes économiques français, il faut impérativement baisser ces coûts, limiter les augmentations du SMIC (potentiellement en dessous de l’inflation) et subventionner les bas salaires (quitte à limiter les budgets de protection sociale pour trouver les financements de ces subventions). Cette idée est problématique, d’abord parce qu’elle est fausse. Mais elle est d’autant plus problématique qu’au-delà de leur inefficacité, les politiques qu’elle engendre favorisent les inégalités.

Une incapacité de la baisse des coûts du travail à résorber le chômage

La lecture des documents budgétaires attachés au Projet de loi de finance (PLF) et au Projet de loi de financement de la sécurité sociale (PLFSS) pour l’année 2020 nous permet de constater que 60 milliards d’euros (soit 2,5 % du revenu national brut) sont consacrés à faire baisser le coût du travail, principalement à travers des dispositifs socio-fiscaux. Ce montant colossal est la résultante d’une focalisation de la politique française du travail sur son coût depuis le début des années 1990. Les mesures de type allègement de cotisations sociales ou crédit d’impôt pour l’emploi d’un salarié à domicile se sont cumulées depuis, grossissant régulièrement par l’ajout de nouveaux dispositifs ou le relèvement de plafonds.

Or, ces politiques ont échoué. Cette affirmation ne se base pas simplement sur le niveau final de chômage mais sur des évaluations statistiques basées sur l’analyse fine des évolutions des décisions de production des entreprises. Si les analyses des premiers allègements, de l’ordre de quelques pourcents, font apparaître des créations d’emploi (par exemple l’étude initiale de deux chercheurs de l’Insee et un rapport récent de l’IPP, même si un autre article de chercheurs de l’Insee présentait des résultats contradictoires), les évaluations des effets des relèvements successifs donnent des résultats de plus en plus limités : l’analyse de la réforme Fillion de 2003 montre une faible réactivité de l’emploi aux niveaux des cotisations sociales, et l’évaluation du CICE pointe un échec patent du dispositif en termes d’emploi créés.

Deux études, employant deux méthodes d’évaluation distinctes, ont été rendues au comité de suivi du CICE, l’une ne trouvant aucune création d’emploi du fait du CICE et l’autre un nombre positif mais faible. Appelé à faire un travail de réplication et de rapprochement des études, l’Insee conclut à « l’absence d’effets significatifs pour les régressions pondérées. [...] Quand les observations ne sont pas pondérées, les estimations montrent un effet positif et significatif du traitement, mais l’échec des tests placebos met en évidence qu’il s’agirait plutôt d’une tendance antérieure, inobservée, et non prise en compte par les variables de contrôle. » Le langage peut paraître technique mais ce qui est dit est clair : il y a deux manières de réaliser l’estimation, la première n’indiquant pas de création d’emploi, la seconde faisant apparaître un artéfact statistique qui n’est pas causé par le CICE mais lui préexistait.

Première explication : le niveau de ciblage

L’explication principalement avancée pour expliquer ces échecs tient au fait que les augmentations successives des allègements de cotisations ont conduit à élargir vers le haut la fenêtre des salaires éligibles. Or, seul l’allègement du coût du travail à bas salaire serait réellement efficace. C’est notamment le propos d’une tribune de 36 économistes dans le monde en 2014 et du renforcement des allègements en dessous de 1,6 SMIC en 2015 puis à nouveau en 2019-2020.

Or, la première analyse des effets de cet ajout de 2015 est négative. De son côté, le CAE a repris l’estimation la plus favorable des effets du CICE, celle que l’Insee a jugé être un artefact statistique, et à intégralement imputé ces emplois supposés créés à la part du CICE portant sur les bas salaires : même avec ces hypothèses favorables, le résultat est que les 13,3 milliards d’euros de cet allègement en dessous de 1,6 SMIC auraient au mieux créé un emploi tous les 160 000 euros par an de dépenses publiques.

De plus, les études économiques des allègements de cotisations dans d’autres pays – notamment des allègements sur les bas salaires en Scandinavie – montrent des impacts très faibles sur l’emploi. Il faut donc en conclure que ce n’est pas qu’un problème de ciblage, mais que c’est bien la stratégie complète de baisse de coût du travail qui est à revoir. Aujourd’hui, le coût du travail au salaire minimum en France est même inférieur à celui de la Californie, et de l’ordre de celui de l’Ontario ou de l’Alberta. En avril prochain, ce sera au tour du salaire minimum britannique de dépasser le SMIC français.

Explication alternative : la complémentarité

Si ce constat empirique semble surprendre une part des économistes et des hommes politiques français, il n’a pourtant rien de paradoxal. Cela ne surprend que ceux qui ont une vision très simpliste de l’emploi comme d’un marché idéal-typique sur lequel une offre de travail – les travailleurs offrant d’autant plus leurs services que le salaire est élevé – rencontrerait une demande – les entreprises achetant d’autant plus de travail qu’il est bon marché. Selon ce modèle simple, si le prix du travail est élevé alors les employeurs se détournent du travail peu qualifié, soit en abandonnant l’idée de produire (i), soit en lui substituant d’autres facteurs de production tels que du capital ou du travail qualifié (ii), soit en délocalisant la production dans des pays à bas salaires (iii).

Le premier comme le dernier point ne sont pas très sérieux : (i.) Pense-t-on vraiment que si on diminue le coût du travail, les plus fortunés renonceront à une part de leurs consommations courantes et utiliseront ces économies pour augmenter leurs investissements productifs ? (iii.) Pense-t-on vraiment qu’on va inverser la délocalisation vers les pays d’Europe de l’est ou du sud-est asiatique en allégeant les cotisations où en augmentant le SMIC moins vite que l’inflation ?

La modification de la structure de production, avec une substitution par du travail plus qualifié ou du capital, est un argument plus sérieux (ii.). Toutefois, il suppose une certaine substituabilité à court terme entre ces facteurs de production, en fonction de relativement faibles variations de leurs prix. Or, les modifications des structures de production sont plutôt des mécanismes qui opèrent à long terme, orientés principalement par des considérations technologiques. On donne souvent des exemples de numérisation et de mécanisation qui auraient remplacé les travailleurs, mais pense-t-on pour autant qu’on rejetterait la technologie pour revenir au travail humain si son coût baissait ? Il est peu probable que les supermarchés renonceraient aux caisses libre-service si on allégeait encore davantage les cotisations sur les salaires des caissières.

À court ou moyen terme, c’est surtout la complémentarité qui prédomine. Or, cette complémentarité ne peut se faire que dans un seul sens : ce n’est pas la baisse du prix des services de ménage qui permettra de créer des bureaux d’étude (ce qui correspondrait au point i), mais c’est en formant plus de gens capables de les ouvrir, et qui auront besoin qu’ils soient propres pour recevoir leurs clients, qu’on fera augmenter la demande de services de ménage. C’est donc bien dans l’investissement public dans l’éducation et la formation et non dans la baisse des coûts et des conditions du travail que se trouve la création d’emplois.

Le plus ironique est que c’est ce qui ressort des modèles standards de marché du travail souvent utilisés pour réclamer toujours plus de flexibilité et de baisse du coût et des conditions de travail. C’est ce que je viens de montrer dans un article à paraître. Reprenant ces modèles dans un cadre comprenant plusieurs facteurs de production (et non pas, comme souvent, un seul type de travail homogène), il apparaît que l’efficacité comparée des politiques d’investissement public dans la formation ou dans la baisse du coût du travail dépend fortement de la plus ou moins grande substituabilité ou complémentarité des différents types de travail : plus le travail peu qualifié est complémentaire du travail plus qualifié, moins les politiques de baisse du coût du travail fonctionnent et plus les politiques d’éducation et de formation sont efficaces. Or, l’évolution technologique conduit à renforcer la complémentarité entre des emplois de contact – livraison, transport, aide à domicile – et des emplois plus qualifiés, notamment de développement informatique.

Pourquoi continue-t-on dans cette voie sans issue ?

Une première explication pour tenter de répondre à cette question, tient aux courtes vues et à la persistance de la confiance dans les institutions. Les politiciens ont besoin de résultats immédiats pour faire carrière, et miser sur l’éducation prend trop de temps : au mieux plusieurs années avec la formation continue mais plus probablement des décennies avec la formation initiale. À l’opposé, même si les résultats sont faibles (quand ils ne sont pas inexistants), on peut espérer les obtenir rapidement dans le cas de baisses du coût du travail et c’est peut-être ce qui incite chaque nouveau gouvernement à en rajouter une couche sur celles de ses prédécesseurs. Cela fait maintenant plus de 30 ans que nous suivons éperdument cette voie, soit plus d’une génération qu’on stagne ; si on avait opté pour une autre voie, on en verrait déjà les effets.

Une autre explication à cette obstination tient à la force de l’idéologie. C’est souvent facile de mettre les erreurs commises sur le dos de l’idéologie mais force est de constater que celle-ci se retrouve à tous les niveaux. Elle y est solidement implantée à la fois dans les facultés d’économie, au sein des institutions internationales (il n’y a qu’à voir les recommandations du FMI, de la commission européenne, etc.) ainsi que chez les hauts fonctionnaires. On a effectivement observé des manifestations claires de cette idéologie dans divers rapports publics. On en trouve un bon condensé dans l’introduction d’un rapport du CAE de 2004 sur la productivité et l’emploi dans le tertiaire :

Le sous-développement du secteur tertiaire illustre tout d’abord le poids négatif d’un coût élevé du travail peu qualifié sur l’emploi. Dans ce contexte, le salaire minimum est un mauvais instrument de redistribution du revenu s’il ne s’accompagne pas d’une maîtrise du coût du travail. Le coût du travail peu qualifié doit donc être réduit. (...) Dans le secteur des services, où la volatilité et la rotation de la main d’œuvre sont des facteurs clefs de la productivité et de l’emploi, les effets pervers de la réglementation française de la protection de l’emploi sont exacerbés. La réglementation de la protection de l’emploi doit donc être adaptée. (...) Les barrières au développement du travail à temps partiel, dues en grandes parties aux particularités du système socio-fiscal, qui constituent des freins au développement de certains secteurs du tertiaire, doivent être changées.

Baisse du coût direct du travail, et des coûts indirects liés à sa protection, voilà le programme ! Une des autrices de ce rapport a surenchéri quatre ans plus tard dans un rapport de l’inspection générale des finances (IGF) :

Les pays développés qui ont retrouvé le plein emploi l’ont fait dans 75 % des cas avec des emplois de moins de 30 heures et pour la moitié d’entre eux de moins de 15 heures par semaine.

Il n’est pas sûr qu’elle propose un partage du temps de travail, c’est bien plus probablement une généralisation des mini emplois précarisés qui est en fait promise.

Mais ce n’est pas perdu pour tout le monde

Les idéologies ne tombent pas du ciel, elles ne sont pas le simple résultat d’un débat d’idées dans lequel leurs défenseurs se seraient montrés plus éloquents. Dans le cas de l’idéologie du coût du travail, des groupes de personnes morales ou physiques, particulièrement intéressés aux recommandations issues de cette idéologie et ont mis leurs larges ressources au service de sa promotion. En effet, ces politiques inefficaces pour créer des emplois ne font pas que des perdants. Les entreprises, bien qu’elles n’embauchent pas plus, augmentent in fine leurs marges. Ces aides leurs permettent aussi de mieux rémunérer leurs salariés les plus qualifiés (c’est à dire déjà les mieux payés). De plus, le développement de services bon marché (ménage subventionné, livraison peu chère, transport urbain sous rémunéré) bénéficie aux consommateurs de ces services, qui encore une fois sont majoritairement les ménages à plus hauts revenus.

Les gagnants de ces politiques sont donc les ménages les plus aisés : les détenteurs de capital, mais également les travailleurs les plus qualifiés. Ce sont finalement les deux pans du système politique multi-élite décrit par Thomas Piketty dans son dernier livre. Il n’est donc pas étonnant de retrouver un tel consensus dans le prolongement de ces politiques inefficaces, qui sont clairement des politiques de soutien aux inégalités.

[retour ; haut de page]

Le cloisonnement du débat sur les retraites est source d’inégalités

Le club Médiapart, 20 février 2020

Derrière la façade de l’uniformisation du système de retraite se cache la volonté de baisser les pensions pour ne pas avoir à ajuster les financements aux besoins. L’augmentation relative du nombre de personnes âgées peut être gérée de trois manières : i. baisse des pensions ; ii. allongement de la vie active ; iii. augmentation des financements. Le débat s’est focalisé sur les deux premières alors que la troisième a été écartée au motif qu’elle freinerait l’activité économique. Il s’avère pourtant que les deux premières solutions regorgent d’effets inégalitaires alors que les analyses empiriques contestent fortement la prétendue dangerosité de la troisième.

Baisser les pensions, c’est accroître les inégalités

Baisser les pensions permet de baisser les prélèvements obligatoires sur les actifs, mais pas d’augmenter le niveau de vie car il faut épargner pour compenser la baisse de la future pension. La littérature économique a analysé les taux de rendement des portefeuilles individuels sur les marchés financiers et montre sans ambiguïté que plus l’individu est riche, plus il arrive à obtenir un rendement élevé, et ce même indépendamment du niveau de prise de risque.

Ces inégalités seraient moindres si la capitalisation n’était pas purement individuelle mais collective au sein de fonds de pensions professionnels. Toutefois, un tel système de fonds de pension professionnels génèrerait de nouvelles inégalités entre salariés selon le secteur économique et l’entreprise dont ils dépendent, ce qui cadre mal avec la promesse initiale d’uniformisation. De plus, cela compliquerait le suivi des pensions des salariés changeant de secteurs et d’entreprises : le problème des multi-pensionnés était mobilisé afin de justifier la réforme, or on risque de créer des multi-fonds-de-pensionnés, avec moins de soutien administratif pour traiter leurs dossiers et s’y retrouver.

Retarder l’âge de la retraite, c’est accroître les inégalités

Le nouveau système est supposé permettre aux potentiels retraités de « choisir » individuellement entre une durée d’emploi prolongée et une pension diminuée. Évidemment, ce choix est plus libre pour les personnes qui peuvent effectivement rallonger leur carrière (parce qu’ils ont des métiers moins contraignants physiquement et une employabilité plus facile même à des âges avancés) que pour celles qui ne le peuvent pas et n’auront d’autre choix que de subir des baisses de pension.

Par ailleurs, un allongement de carrière identique pour tous est inégalitaire car l’espérance de vie (et encore plus l’espérance de vie en bonne santé) est hétérogène. Commencer la retraite à 63 au lieu de 62 ans, c’est retirer un an sur 23 de retraite à un diplômé du supérieur faisant parti des 25 % de français les plus riches. Pour une personne sans diplôme parmi les 25 % les moins bien lotis, c’est retirer une année sur 12 à la retraite (et peut-être tout son temps sans incapacité).

De plus, le retard de passage à la retraite a des effets néfastes sur la santé des moins diplômés, comme viennent de le montrer des chercheuses en analysant l’effet différé de la réforme de 1993.

Hausser les cotisations ne réduit pas l’emploi ni la compétitivité

La troisième solution, l’augmentation des cotisations sociales, est écartée à cause de son effet supposé de destruction d’emplois. Pourtant, une expérience riche d’enseignements nous a été donnée par l’échec du CICE : appelé à arbitrer un désaccord minime entre deux évaluations (l’une n’observant pas de création d’emploi et l’autre qu’un très faible nombre), l’Insee a conclu que le très faible niveau d’emploi apparaissant dans certaines évaluations n’était qu’un artefact statistique.

Certains arguent que le CICE a échoué parce qu’il concernait les hauts salaires, or il concernait aussi les bas salaires. Même en suivant le très prudent CAE qui a considéré l’artefact statistique comme une réelle création d’emploi, on arrive au mieux à avancer que la part du CICE subventionnant les bas salaires (en dessous de 1,6 SMIC) aurait réussi à créer un emploi tous les 160 000 € dépensés annuellement. Par ailleurs, analysant une réduction de cotisations ciblée sur les bas salaires (le pacte de responsabilité), une étude de l’IPP n’arrive pas non plus à mettre en évidence de création d’emploi. Ainsi, déclarer qu’il serait impossible de continuer à financer les pensions car cela nuirait à l’emploi n’est pas crédible au regard des travaux empiriques sur la question.

Qui sont les gagnants de ce cloisonnement néfaste du débat ?

Rappelons enfin les ordres de grandeurs : dans le pire scénario de croissance, le COR indique que l’équilibre financier en 2025 nécessite une augmentation des cotisations sur les revenus d’activité de 1,5 point. Les cadeaux que l’on vient d’évoquer s’élèvent à 6 points de cotisations pour le CICE et 1,8 point pour le pacte de responsabilité.

Le refus de discuter de l’augmentation des cotisations bénéficie aux salariés les plus qualifiés qui ne verront pas leurs salaires grevés par des cotisations supplémentaires, et aux employeurs qui pourront payer moins cher le travail peu qualifié (sans embaucher davantage). Le prix à payer sera soit un allongement de la période de travail, ce que les plus favorisés peuvent faire plus facilement, soit une compensation de la baisse de pension par un recours à la capitalisation, qui est là aussi plus accessible et plus rentable pour les plus fortunés.

[retour ; haut de page]

La quadrature de la fiscalité locale : équité, efficacité, autonomie, coopération

Horizons Publics, hors série été 2019, Changer le logiciel de l'action publique territoriale, 19 juillet 2019

Lors de la création de l’impôt sur le revenu français en 1914, les finances publiques locales sont restées dans l’ancien temps, se voyant réservé les anciennes contributions directes, les « quatre vieilles ». Ces taxes issues de la révolution cherchaient à imposer des approximations du revenu et de la richesse sans entrer dans l’intimité du contribuable, se fiant uniquement à des signes extérieurs de richesse. De ce fait, les assiettes étaient très imparfaites et on retrouve ces défauts dans la fiscalité locale actuelle. Si la taxe sur les portes et fenêtres a disparu, la contribution foncière a perduré sous la forme de la taxe foncière, la contribution mobilière sous la forme de la taxe d’habitation et la patente sous la forme de la taxe professionnelle.

Les taxes ménages sont assises sur de mauvaises approximations des richesses et des revenus, et sont ainsi peu équitables. L’argument de la régressivité a été présenté pour justifier la suppression partielle de la taxe d’habitation, même si contrairement à la justification de campagne du candidat élu en 2017, ce n’est parce qu’on « paye souvent beaucoup plus quand on vit dans une commune pauvre que dans une commune riche » (En marche, 2017), mais parce dans chaque collectivité l’assiette de la taxe, c’est à dire la valeur locative des logements, croît moins vite que le revenu des contribuables (Carbonnier, 2019). Malgré la croissance avec le revenu du nombre de propriétaires occupants, la taxe foncière présente des caractéristiques similaires.

La fiscalité sur les entreprises a montré la faiblesse de ces assiettes approximatives du point de vue de l’efficacité économique. Réformée en 1976, la taxe professionnelle était assise sur trois assiettes calculées localement : i. la valeur locative de l’immobilier occupé, ii. la valeur d’achat des équipements et iii. la masse salariale. La troisième partie a été supprimée en 1999. Du fait que la seconde partie incitait les entreprises à sous-investir dans les équipements et donc limitait leur productivité (Bergeaud et al., 2019), elle a aussi été supprimée en 2010 et remplacée par la contribution sur la valeur ajoutée des entreprises (CVAE) redistribuée aux collectivités locales selon une clef de répartition composée au tiers de la valeur locative des locaux et aux deux tiers des effectifs employés.

À ces défauts intrinsèques des assiettes s’ajoutent les questions de fixation des taux. Des décisions locales ouvrent le risque de concurrence fiscale pouvant engendrer un défaut de ressources (), mais l’uniformisation nationale des taux limite l’autonomie fiscale des collectivités et fausse la décentralisation.

Une dernière question importante concerne périmètre des interventions et des dépenses publiques. Du point de vue de la vie locale des citoyens, l’intercommunalité est probablement trop petite du fait que la majeure partie des salariés travaille dans une autre commune que celle où elle réside. De ce point de vue, le périmètre effectivement en jeu est celui de la zone d’emploi, caractérisé par l’Insee en fonction des mobilités pendulaires (Insee). Toutefois, il n’est pas question de rajouter un nouvel échelon au mille-feuilles des collectivités territoriales. L’action publique doit être pensée à travers la coopération des intercommunalités d’une zone d’emploi.

Cet article vise à ébaucher les pistes d’une proposition de refondation des taxes locales qui puisse répondre efficacement à cette quadrature des impôts locaux : équité, efficacité, autonomie et coopération. Dans une première partie, les questions d’efficacité et d’équité sont traitées à travers le choix des assiettes fiscales : reprendre les assiettes nationales. Dans une seconde partie les questions de concurrence fiscale et de coopération sont traitées à travers le choix des taux et la répartition des assiettes. La dernière partie discute des problèmes qu’une telle imposition locale peut engendrer.

1. Asseoir la fiscalité locale sur les assiettes modernes

L’obsolescence des assiettes locales s’observe par leur distanciation aux assiettes nationales, qui se sont améliorées en termes d’efficacité et d’équité. On pourrait asseoir les taxes locales sur les mêmes assiettes que les taxes nationales, ce qui outre le gain d’efficacité économique et de justice fiscale, permettrait des économies administratives puisqu’il ne serait plus nécessaire de calculer des assiettes spécifique à la fiscalité locale. Seule l’assiette nationale brute serait considérée, sans les politiques de déductions et réductions d’impôts. Celles-ci sont des politiques nationales de subventions de certains comportements et activités, passant par la fiscalité pour des raisons administratives, mais ne concernant que les prélèvements nationaux.

1.1. Revenus

Une fiscalité juste passe en premier lieu par l’imposition des revenus des personnes physiques. Cela permet de contrôler le caractère équitable via le barème, directement appliqué aux capacités contributives des ménages. Or, le calcul des revenus agrégés est déjà opéré par les services fiscaux pour l’IR national. C’est donc cette assiette qu’il faut prendre en compte pour la contribution locale sur les revenus (CLR). Par ailleurs, l’IR national impose les ménages en spécifiant leur lieu d’habitation principal, ce qui permet de localiser immédiatement les ressources prélevées.

L’imposition des revenus en France présente néanmoins l’inconvénient d’être éclatée entre trois impôts : d’une part le prélèvement forfaitaire unique (PFU) pour les revenus du patrimoine mobilier ; d’autre part la CSG et l’IR au barème pour les autres revenus. De plus, l’IR seul ne peut pas être pris comme référence car seulement deux cinquièmes des ménages en sont redevables. Or, il s’agit de mettre en place un impôt local unique payé par l’ensemble des ménages en fonction de leur capacité contributive (et non en fonction de la valeur locative de leur logement).

Deux solutions sont envisageables : soit les services fiscaux font la somme des impôts sur le revenu des ménages et on y ajoute un pourcentage d’imposition locale ; soit ils additionnent les assiettes de l’IR et du PFU pour créer l’assiette de la CLR avec un barème spécifique. Ce barème serait national avec un taux très faible mais positif dès le premier euro. Les collectivités n’auraient pas le pouvoir d’en modifier la progressivité mais juste de prélever plus ou moins en apposant un coefficient multiplicatif local (qui pourrait être encadré).

1.2. Patrimoines

En ce qui concerne l’imposition des patrimoines, les assiettes nationales sont limitées. Il existait un impôt – l’ISF – dont l’assiette était déclarative et qui ne concernait qu’une infime proportion de ménages. Il a été remplacé par l’impôt sur la fortune immobilière (IFI), limité aux grandes fortunes alors que la taxe foncière touche pratiquement tous les propriétaires (dont des proportions non négligeables parmi les ménages les plus modestes (Carbonnier, 2019)).

L’idée dans un premier temps serait de généraliser le calcul d’une assiette agrégée de l’ensemble des propriétés foncières à tous les ménages, et de remplacer la taxe foncière à taux unique par une contribution locale sur la propriété foncière (CLPF) avec un barème progressif. La difficulté serait d’attribuer les recettes entre les différentes collectivités territoriales puisqu’un ménage peut avoir des propriétés dans plusieurs localités. Si on ne cherche pas à laisser un pouvoir de taux aux collectivités sur cet impôt, cela ne pose pas de difficultés et il suffit de répartir les recettes en proportion de la valeur des propriétés. Si on souhaite laisser un pouvoir de taux l’opération consisterait à calculer l’assiette nationale et le taux moyen d’imposition du fait du barème progressif. Ensuite, l’assiette serait fractionnée entre les collectivités en proportion des valeurs des propriétés et le taux moyen modifié du coefficient multiplicateur local (là encore potentiellement encadré) serait appliqué à chaque portion d’assiette.

1.3. Entreprises

Pour les entreprises, l’assiette nationale est calculée pour l’impôt sur les bénéfices (IS). Il n’est pas question d’imposition progressive donc il suffirait de déterminer les taux de la cotisation locale sur les bénéfices (CLB), potentiellement encadrés. Les recettes seraient réparties comme la CVAE actuelle : deux tiers en fonction des effectifs et un tiers en fonction des locaux occupés. Cet impôt n’aurait vocation à remplacer que la CVAE et les autres taxes locales sur les entreprises – notamment IFER et CFE – pourraient être conservées.

2. Choix des taux et allocation des assiettes taxables

La solution radicale pour limiter la concurrence fiscale reviendrait à imposer nationalement un taux. Un contrôle plus souple laissant de l’autonomie aux collectivités peut être obtenu par l’imposition d’un tunnel des taux possibles, plus ou moins large selon le risque de concurrence fiscale.

2.1. Impôt local sur le revenu

Pour se faire une idée du coefficient moyen concernant CLR, il faut comparer les recettes de TH avant réforme aux recettes nationales d’imposition des revenus. En 2017, la TH prélevait 22,6 milliards d’euros et la somme de la CSG et de l’IR 210,0 milliards d’euros (calculs à partir de DG Trésor, 2018). Le tunnel de coefficients multiplicateurs locaux devrait donc être centré autour de 10 %.

2.2. Impôt local sur les entreprises

Le CAE a fait le calcul que pour remplacer la CVAE a recettes constantes : il faudrait à terme un taux additionnel de 4 % d’IS plus une part des 25 % nationaux (Martin et Trannoy, 2019). En effet, la suppression de la CVAE augmente de facto l’assiette imposable à l’IS puisque la CVAE est déductible de l’IS.

La vraie question concerne le périmètre de restitution de la CLB. Cette ressource doit profiter aux intercommunalités qui abritent les entreprises et leur offrent des infrastructures. C’est d’une certaine façon le prix à payer pour l’utilisation de ces infrastructures. C’est aussi le prix à payer parce que les actifs profitent des services publics locaux non seulement dans leur intercommunalité de résidence mais également dans leur intercommunalité d’activité. De même que les impôts ménages sont reversés à l’intercommunalité de résidence, il faut reverser la majeure partie de l’ILS à l’intercommunalité des établissements. Pour les entreprises pluri-établissements, il importe de répartir en fonction de l’occupation immobilière des établissements et de leurs effectifs salariés, ce qui est actuellement le cas pour la répartition de la CVAE.

Toutefois, on peut envisager qu’une part seulement soit reversée aux intercommunalités sans condition. L’autre servirait à inciter à la coopération entre intercommunalités d’une même zone d’emploi. La part de CLB non directement versée aux intercommunalités serait conservée dans un fonds par zone d’emploi. Celui-ci servirait à financer les projets portés par plusieurs intercommunalités et ayant un objectif en faveur de la zone d’emploi. Un exemple évident serait des investissements dans un réseau de transport traversant plusieurs intercommunalités, nécessaire aux mobilités pendulaires dans la zone d’emploi.

3. Potentiel et limites

Les pistes de réforme ébauchées ici supposent des transformations en profondeur du système de financement des collectivités locales. Tout d’abord, comme tout changement d’envergure pensé à budget constant, il crée des gagnants et des perdants, à la fois du côté des ménages, des entreprises et des collectivités locales. Avant de rentrer dans ces considérations, il convient rappeler qu’il n’existe pas de contrainte technique à ces propositions. Les calculs d’assiettes sont déjà opérés au niveau national, tout comme le sont les impôts locaux actuels. Il s’agit donc d’une simplification administrative, aussi bien pour les contribuables que pour l’administration fiscale.

Pour les ménages, l’impact principal de la réforme vient du remplacement des impositions proportionnelles par des impositions progressives. Les perdants sont donc les plus fortunés, les gagnants les plus modestes. La réforme consiste donc à renforcer la progressivité du système français de prélèvements obligatoires.

Le cas des entreprises est plus complexe car une taxe sur la valeur ajoutée fiscale est remplacée par une taxe sur le bénéfice. Les différences proviennent de la part des immobilisations dans les coûts de production, ce qui favorise les entreprises industrielles. De plus, une redistribution serait de facto opérée des entreprises les plus rentables vers les entreprises les moins rentables. Il s’agit certes d’une redistribution d’un point de vue statique, mais elle peut être interprétée d’un point de vue dynamique comme une fonction assurantielle de la fiscalité : les entreprises paient plus en conjoncture haute et moins en conjoncture basse.

Ce dernier point soulève un problème du point de vue des collectivités territoriales car les recettes d’IS seraient plus volatiles que les recettes de CVAE. Toutefois, il rentre dans les prérogatives des pouvoirs publics d’assurer les agents économiques contre les cycles économiques, ce qui peut être opéré via l’endettement. On peut alors penser à des mécanismes de dette gagée par l’État en fonction des pertes de CLB du fait du cycle économique.

Enfin, le dernier problème pour les collectivités territoriales provient de la modification que subiraient les potentiels fiscaux en fonction de la localisation des ménages aisés et des entreprises les plus rentables. Il existe déjà de nombreux mécanismes de péréquation, il serait envisageable de les ajuster pour répondre aux modifications de potentiels fiscaux générés par la réforme.

[retour ; haut de page]

Contre les inégalités, redistribuer les revenus est nécessaire mais pas suffisant

AOC média, 7 mars 2019, avec Nathalie Morel

La question de la justice fiscale est à la une de l’actualité, à la fois internationalement avec un nouveau plan de l’OCDE pour restructurer l’architecture mondiale d’imposition des sociétés que nationalement avec des questionnements notamment sur les réformes récentes touchant la fiscalité du capital – transformation de l’impôt de solidarité sur la fortune (ISF) en impôt sur la fortune immobilière (IFI) ; réduction de l’imposition de certains revenus du capital à travers un taux unique de 30 % couvrant à la fois les impôts et les prélèvements sociaux (PFU) ; baisse du taux d’imposition des entreprises de 33 à 25 % et perpétuation du CICE et du pacte de responsabilité.

Ces débats sont utiles mais non suffisants. Pour avoir une vision d’ensemble des politiques publiques ayant un impact sur les inégalités, il importe non seulement de mesurer la progressivité du système socio-fiscal dans sa globalité – c’est-à-dire mesurer à la fois les impacts redistributifs des prélèvements et des prestations – mais également d’évaluer l’ensemble des politiques qui structurent les inégalités en amont – inégalités de rémunérations, d’accès à l’emploi – ainsi que celles qui gouvernent l’accès aux services publics.

Un cas intéressant est celui des dépenses fiscales, et particulièrement celles qui ont une motivation sociale, parce qu’elles jouent sur les inégalités par tous les aspects. De fait, elles modifient la progressivité des prélèvements puisqu’elles accordent de plus faibles impôts à certains ménages. Souvent, elles remplacent des subventions ou des prestations directes, et en ce sens peuvent modifier le profil des transferts. Enfin, le fait de développer une politique sociale à travers le filtre des incitations fiscales structure l’accès et la qualité des services sociaux.

La politique fiscale de soutien aux services à la personne, un cas d’école

Dans ce sens, le crédit d’impôt pour l’emploi d’un salarié à domicile est un cas exemplaire. Il s’agit d’un crédit d’impôt dont le coût public est non négligeable (4.8 milliards d’euros par an) et qui affiche plusieurs motivations : créer de l’emploi pour les moins qualifiés d’une part et répondre à de nouveaux besoins sociaux d’autre part. En effet, ce crédit a été créé au début des années 1990 et fortement étendu dans les années 2000 dans le cadre de politiques considérant que la lutte contre le chômage des moins qualifiés ne pouvait passer que par la baisse du coût de leur travail. En parallèle, la politique visait à financer en partie les consommations de services sociaux – notamment garde d’enfants et aides à domicile pour les personnes en perte d’autonomie – dont les besoins sont croissants avec le vieillissement de la population et la généralisation de l’accès des femmes au marché du travail. Passer par un crédit d’impôt devait permettre d’atteindre ces deux objectifs à moindre coût public.

Or, si la frugalité en dépenses publiques est loin d’être atteinte, notre livre, Le retour des domestiques, montre l’échec de la politique sur tous ses objectifs. La mise en place initiale de la réduction d’impôt avec un plafond modéré (3800 € de dépenses annuelles) a permis d’augmenter l’emploi déclaré, notamment en sortant un certain nombre de salariées de la clandestinité. Cependant, les relèvements de plafond successifs (les dépenses annuelles éligibles sont aujourd’hui portées à 12 000 € et jusqu’à 20 000 € selon les caractéristiques du foyer) n’ont ni créé d’emploi ni permis d’en sortir de la clandestinité. Ceci n’est pas si étonnant, les foyers consommant plus de 4 000 € de services à la personne par an, et jusqu’à 10 000 ou 20 000 € par an, sont principalement des ménages très fortunés. Ceux-ci, même s’ils sont heureux de payer moins cher pour les services, ne modifient que marginalement leur consommation quand son coût varie.

Ceci explique également le coût de la mesure. Elle ne crée pas d’emploi, mais elle subventionne jusqu’à des niveaux annuels très élevés (jusqu’à 10 000 € de crédit d’impôt annuel) des ménages qui auraient consommé la même quantité de services sans la mesure.

Pour ce qui est de l’objectif de répondre à des besoins sociaux nouveaux, il s’avère que les services d’aides à domicile ou de garde d’enfant sont minoritaires dans les services effectivement subventionnés par le crédit d’impôt. La majorité des services ouvrant droit à crédit d’impôt sont en fait du ménage, du repassage ou du jardinage pour des employeurs valides.

Une politique multi-polarisante

Ainsi, si cette politique ne crée pas d’emplois et ne permet pas de développer des services dont ont tant besoin de plus en plus de ménages, elle est surtout une forme de redistribution des richesses à travers une subvention prenant la forme d’une diminution d’impôt. Or, cette redistribution des richesses est extrêmement inégalitaire : la moitié la plus modeste de la population capte moins de 7 % de cette dépense fiscale alors que le dixième le plus aisé en perçoit plus de 43 % à lui seul. En effet, même fortement subventionnés, ces services restent bien trop chers pour les ménages modestes et seuls les plus aisés les consomment, et en profitent pour faire baisser leurs impôts.

Certains argumentent que le profil anti-redistributif de ce dispositif se justifie dans la mesure où les ménages moins aisés bénéficient pour leur part de dispositifs publics sous condition de ressources dont sont de fait exclus les ménages plus aisés. C’est le cas notamment en ce qui concerne la prise en charge de la dépendance, où l’Allocation Personnalisée d’Autonomie (APA) dépend en partie des ressources financières du bénéficiaire. En pratique, une équipe médico-sociale évalue le niveau de dépendance de la personne en perte d’autonomie et prescrit le nombre d’heures de services dont elle a besoin. Ces heures sont ensuite financées par la prestation dans la limite d’un plafond mensuel, et avec une participation du patient dès qu’il gagne plus de 811 € par mois. Cette participation du patient au paiement des heures prescrites croît avec son revenu pour atteindre le plafond de 90 % à partir de 2 987 € par mois. L’existence d’un tel reste à charge pour des ménages aux revenus modestes (dès 811 €) génère un renoncement à une partie des services – pourtant prescrits par une équipe socio-médicale. À l’opposé, les personnes âgées plus aisées consomment un grand nombre d’heures de services – bien au-delà du plan d’aide prescrit – en bénéficiant très largement du crédit d’impôt.

L’inégalité d’accès aux services à la personne se retrouve également dans la garde d’enfant. La France offre seulement une place en crèche pour cinq enfants en âge préscolaire, mais subventionne – notamment par le crédit d’impôt pour l’emploi à domicile – les modes de garde individuels. Une conséquence est que la France est le pays de l’OCDE le plus inégalitaire dans l’accès à la garde d’enfants en bas âges. Plus de 80 % des enfants du tiers le plus aisé des ménages français bénéficient d’une garde formelle (garde collective ou individuelle sous la responsabilité de personnes rémunérées pour cela). Ce taux est supérieur à tous les pays de l’OCDE, y compris les Scandinaves. En revanche, seulement 18 % des enfants du tiers des ménages les plus modestes bénéficient d’un mode de garde formel. C’est bien en-dessous des Scandinaves mais aussi moitié moins que l’Espagne ou la Belgique, et au niveau de l’Italie.

Outre l’impact inégalitaire sur les enfants eux-mêmes, cela se traduit également très fortement dans les carrières des mères. Si les mères les plus qualifiées peuvent conserver une activité professionnelle – ce dont on ne peut que se réjouir – les femmes les moins qualifiées sont souvent forcées d’interrompre leur carrière, avec des conséquences à long terme en matière d’employabilité et de salaires.

Des possibilités d’évolutions favorables

Pour autant, il serait faux de croire que c’est une fatalité, que nombre de salariées sont trop peu qualifiées pour trouver un emploi si ce n’est mal payé et avec des conditions de travail dégradées. Tout comme il serait faux de croire que les inégalités d’accès aux services essentiels que constituent l’aide à l’autonomie et la garde d’enfant sont négligeables et compensées par le reste des politiques sociales. C’est bien l’accès global à la garde d’enfant – quel que soit sa forme – qui est inégalitaire du fait qu’une part de la politique passe par le crédit d’impôt.

Pourtant, il est possible de réorienter les sommes importantes qui ont aujourd’hui si peu d’effets bénéfiques et tant d’effets pervers vers une politique volontariste de service public de l’autonomie et de la petite enfance. Nous ne préconisons pas de remettre en cause totalement le crédit d’impôt mais au moins de séparer totalement les politiques vis-à-vis des services de confort (pour lesquels la politique ne peut être qu’une politique de l’emploi) et des services sociaux (pour lesquels la qualité et l’égalité d’accès doivent être les premiers objectifs).

Les évaluations ont montré que les relèvements de plafonds annuels de dépenses éligibles n’ont pas créé d’emplois ni n’en ont sorti de la clandestinité. Il convient donc de baisser drastiquement les plafonds. Pour les services sociaux, il faut même modifier la forme de la politique pour assurer un accès à tous les ménages qui en ont besoin et un contrôle effectif de la qualité. La garde d’enfant en bas âge est le prélude à la scolarisation comme l’aide à l’autonomie est la continuation des soins médicaux. D’ailleurs, le manque d’aide à l’autonomie se traduit par un surcroît d’hospitalisation et un engorgement des services d’urgence. Ce qu’on croît économiser d’un côté, on le repaie de l’autre, mais avec des conséquences néfastes pour les ménages. La puissance publique doit prendre la mesure de sa responsabilité quant à un accès universel de tous les enfants à un mode de garde de qualité et de toutes les personnes en pertes d’autonomie à des aides à domiciles appropriées.

Comme nous l’avons mentionné, les services à la personne sont un cas d’école et des similarités peuvent être trouvées ailleurs. Bien d’autres politiques socio-fiscales méritent d’être évaluées quant à la réalité de leurs effets incitatifs et redistributifs, ainsi qu’à la manière dont elles structurent la protection sociale en général. Il conviendra alors de réduire drastiquement celles qui ne sont pas incitatives et trop anti-redistributives, et de mettre à la place des actions ciblées et structurantes pour s’assurer d’une protection sociale réellement universelle.

[retour ; haut de page]

Entre les dépenses publiques et les impôts, il y a les niches fiscales

Le Monde, 24 janvier 2019

Si le Gérald Darmanin a ouvert le débat sur une diminution des niches fiscales, il semble indiquer que le crédit d’impôt pour l’emploi à domicile ne fait pas partie des niches à modifier. Pourtant, ce crédit d’impôt est loin d’être parfait, comme nous l’analysons avec Nathalie Morel dans notre livre : Le retour des domestiques. Sans revenir entièrement sur cet avantage fiscal, il mériterait d’être profondément réformé. Cette politique tente aujourd’hui de mêler plusieurs objectifs, en l’occurrence de créer des emplois pour les travailleurs peu qualifiés et de financer le développement de services sociaux, en particulier la garde d’enfants et l’aide aux personnes en perte d’autonomie. Ces objectifs nécessitent des politiques différenciées.

Pour les services de confort, le plafond d’un crédit d’impôt conservé doit être fixé en fonction de l’efficacité en termes de création d’emplois, l’objectif unique. Les études empiriques montrent que les niveaux de plafonds actuels sont bien trop hauts pour être efficaces. Pour les services sociaux, il faut contrôler à la fois les possibilités d’accès aux services et leur qualité, via une régulation forte et un financement direct. Cela peut passer, pour l’exemple de l’aide à l’autonomie, par un basculement du crédit d’impôt offert pour ces services vers l’extension d’allocations de type APA (allocation personnalisée d’autonomie), vers un conventionnement des services d’aides à l’autonomie sur le modèle des autres services de soins (médecins, infirmiers, kinésithérapeutes, etc.), ou encore vers la provision directe des soins par un service public de la dépendance.

Les conséquences sur l’emploi peu qualifiés seraient positives. Les évaluations de la baisse de plafond de 1998 et des hausses du début des années 2000 pointent l’absence de variation de l’emploi déclaré en réponse à ces réformes. On peut donc s’attendre à l’absence de destruction d’emplois ou de retour à la clandestinité du fait de la baisse de plafond. En revanche, le financement direct de services sociaux devrait augmenter l’emploi, si ces emplois nouvellement financés ne se contentent pas de remplacer des emplois existants. La pénurie actuelle de services de garde d’enfant et d’aide à l’autonomie incite à penser qu’il y aurait bien une création nette d’emplois.

Une telle réforme permettrait aussi d’améliorer l’égalité d’accès aux services de garde d’enfant et d’aide à l’autonomie. Aujourd’hui, malgré une allocation additionnelle ciblée – l’APA – des ménages modestes renoncent, à cause des restes à charge, à consommer les services pourtant prescrits par une équipe médico-sociale. C’est encore pire pour la garde d’enfant d’âge préscolaire, pour laquelle la France est parmi les plus inégalitaires de l’OCDE : 80 % du tiers le plus aisé des ménages fait garder son enfant contre seulement 18 % du tiers le moins aisé. Et ceci a des conséquences sur les carrières professionnelles des mères.

Enfin, de tels changements permettraient d’avancer en ce qui concerne les conditions de travail et d’évolution de carrière des salariées du secteur. Le basculement permettrait de mieux contrôler les conditions de travail, aujourd’hui déficientes, et d’offrir de réelles possibilités de formation continue, aujourd’hui pratiquement inexistantes.

[retour ; haut de page]

Pour des sciences sociales unies, mais pas uniformisées

9 octobre 2018

Jean Tirole a publié dans Le Monde une très belle page publicitaire pour son Institut for advanced study in Toulouse (IAST). Il y défend une vision plus ouverte des sciences sociales, et particulièrement de l’économie à l’intérieur de celles-ci. Il présente de manière à la fois concise et claire les principales limites de l’hypothèse d’homo œconomicus : elle structure l’analyse par la modélisation d’agents économiques qui prennent, compte tenu de l’information à leur disposition, les meilleures décisions possibles au regard d’un objectif qui leur est propre. Or les objectifs – les fameuses préférences des agents – ne sont pas qu’intrinsèques mais également en partie socialement construits, et les agents ne prennent pas toujours leurs décisions rationnellement. Il appelle donc, citant à l’appui des publications de l’IAST, à une collaboration entre disciplines des sciences sociales, avec pourquoi pas à terme un objectif de réunification.

En tant que praticien au quotidien de l’interdisciplinarité en sciences sociales (je ne ferai pas étalage des publications interdisciplinaires du Laboratoire interdisciplinaire d’évaluation des politiques publiques (LIEPP) mais laisserai les curieux aller chiner sur le site), je ne peux que me réjouir d’un tel appel de la part d’une personnalité aussi éminente : du fait de ses nombreuses publications, il a notamment obtenu en 2014 le prix de la banque de Suède en l’honneur d’Alfred Nobel. Mais je ne me contente pas de me réjouir et d’espérer que ce ne soit que le signe annonciateur d’une métamorphose profonde de l’analyse économique, je prends la balle au bond pour exprimer ce qu’est ma vision de l’interdisciplinarité en sciences sociales. Il y existe en effet de dangereux écueils dans la manière d’aller vers des sciences sociales réunies. Je ne fais absolument pas de procès d’intention à Jean Tirole et ne prétend surtout pas qu’il ne les a pas vus, je me contente de profiter de l’occasion pour les présenter.

Un modèle, même particulièrement finement tuné, reste une vision partielle du monde

Tout d’abord, et même si cela peut paraître trivial, il me semble essentiel de revenir sur ce qu’est un modèle théorique. Il s’agit d’une représentation simplifiée de la réalité servant à structurer la pensée par rapport à une problématique. Il n’a pas pour but d’être généraliste, ni absolument précis, mais il est au contraire un modèle réduit de la réalité à échelle variable. En effet, l’échelle varie en fonction de la problématique et du focus que l’on souhaite effectuer. On simplifie au maximum ce qui n’a pas (ou peu, ou du moins l’espère-t-on) d’influence sur notre problématique pour concentrer l’intégralité de notre capacité cognitive sur celle-ci, dans sa plus grande complexité. Un modèle est donc finalement un outil, avec un but précis, qui lui donne une capacité à nous faire comprendre une partie de la réalité socio-économique en laissant de côté les autres parties. De même que le tournevis sert à serrer des vis et les tenailles à retirer des clous, les différents modèles ont des périmètres d’application limités. Il existe certes des couteaux suisses multifonctions, ils sont pratiques si on ne veut pas s’alourdir avec plusieurs outils différents, mais sont souvent moins performants que l’outil spécialisé pour chacune de ses fonctions.

L’analyse économique théorique est principalement une science hypothético-déductive, c’est-à-dire que ses modèles peuvent souvent se résumer sous la forme d’un si H, alors C, où C représente les conclusions que l’on tire des hypothèses de travail H : non seulement l’hypothèse d’homo œconomicus (avec plus précisément la forme des objectifs – égoïste ou altruiste, immédiat ou inter-temporel, etc.) mais également hypothèses de structure concurrentielle, de distribution de l’information, de cadre institutionnel, etc. La constitution de la boite à outil de l’économiste a souvent consisté à produire une multitude de modèles en se basant sur une multitude d’hypothèses de travail (mais une grande part conservant les caractères intrinsèques des objectifs et rationnels des décisions). On peut alors chercher à construire de nouveaux modèles utiles à la compréhension de la réalité socio-économique, soit en partant d’hypothèses nouvelles (afin de créer un nouvel outil pour un usage qui n’existait pas précédemment) soit en élaborant et complexifiant les hypothèses existantes pour mieux répondre à une problématique. Pour autant, dans ce processus, deux écueils sont particulièrement à éviter, le voile de complexité et l’excès de confiance.

Le voile de complexité : risque de défaut de maîtrise voire de mathiness

Nous autres pauvres humains avons un cerveau limité. Donc plus nous compliquons les hypothèses, plus nous compliquons le modèle et moins nous le maîtrisons. Beaucoup de modèles économiques ont atteint un tel degré de complexité qu’on ne peut plus les résoudre formellement. On a alors deux solutions, soit on fait des hypothèses simplificatrices de résolution, soit on fait de l’analyse numérique. Les deux voies peuvent être utiles mais aussi s’avérer dangereuses. Les hypothèses simplificatrices de résolution Hr peuvent structurer fortement les conclusions et il ne faut pas oublier que le modèle ne conduit plus à si H alors C mais bien à si H et Hr alors C. On peut alors avoir perdu par Hr la complexité et la généralité qu’on recherchait dans H. Pour faire de la résolution numérique, il faut aussi bien souvent rajouter des hypothèses fortes, au moins sur les formes fonctionnelles, qui peuvent avoir une grosse influence sur les conclusions. Qu’est-ce qui tient alors des hypothèses choisies et qu’est-ce qui tient des hypothèses subies ? À contrario, un modèle simpliste mais maîtrisé peut avoir ses vertus par la compréhension fine de ses contributions et limites, à condition de rester justement bien conscient de ces limites.

Si une complexité mal maîtrisée des hypothèses peut créer du flou derrière lequel des erreurs d’interprétation peuvent se cacher, une complexité bien maîtrisée peut servir à cacher sciemment des biais d’interprétation. On passe alors d’un récipiendaire du prix de la banque de Suède en l’honneur d’Alfred Nobel à un autre, et en l’occurrence le dernier en date, Paul Romer et son concept de mathiness. Il s’est attaqué depuis quelques années à ce qu’il définit ainsi : "The style that I am calling mathiness lets academic politics masquerade as science. Like mathematical theory, mathiness uses a mixture of words and symbols, but instead of making tight links, it leaves ample room for slippage between statements in natural versus formal language and between statements with theoretical as opposed to empirical content." Il démonte précisément quelques articles renommés qu’il accuse de cacher des biais idéologiques derrière des hypothèses mathématiques mal interprétées. On comprend facilement comment il est d’autant plus facile de réaliser de tels méfaits lorsque la complexité des hypothèses et des modèles les rendent difficilement appréhendables, même à l’intérieur du champ de recherche.

L’excès de confiance, où l’impérialisme économique

L’autre grand écueil est évidement l’excès de confiance. Ce n’est pas parce qu’on a construit un modèle sur des hypothèses excessivement raffinées – et que l’on maîtrise totalement – que l’on a en sa possession l’outil absolu qui répondra à tous les besoins. Un des défauts de l’analyse économique basée sur l’homo œconomicus n’a pas tant été les limites de cette hypothèse que sa tentative d’application à toutes les sauces, pour tout expliquer, en dédaignant les apports des autres analyses. Un certain nombre d’économistes se sont retrouvés avec cet outil que constitue un modèle basé sur l’homo œconomicus – disons un marteau – et ont tenté non seulement de planter des clous avec (ce qui marche plutôt bien), mais aussi de serrer des vis (ce qui marche presque si on tape assez fort), de scier des planches (ce qui marche franchement mal) et de taper sur les doigts de quiconque tentait d’expliquer qu’un tournevis ou une scie-sauteuse pourraient être plus appropriés.

Pour autant, et je me retrouve à défendre l’homo œconomicus contre un nouveau détracteur, je pense que le marteau n’a pas vécu, qu’il a encore de beaux jours devant lui. En effet, notre réalité socio-économique est encore fortement structurée par des mécanismes de marchés, et dans ceux-ci un nombre non négligeable d’acteurs prennent leurs décisions en fonction de leurs intérêts bien compris. Il ne pourra toutefois être vraiment utile qu’à condition de le cantonner à son périmètre de compétence, et pas plus.

Pour une diversité des approches interdisciplinaires

Ainsi, il y a plusieurs manières de faire de l’interdisciplinarité. On peut croiser les analyses : on sait que si Ha alors Ca, si Hb alors Cb et si Hc alors Cc. Ensuite, en réfléchissant conjointement entre chercheurs maîtrisant respectivement les hypothèses Ha, Hb et Hc, on peut tenter de comprendre la part de chacune dans le monde qu’on étudie, et mettre cette analyse en balance avec des analyses empiriques, qualitatives ou quantitatives (avec différentes méthodologies pour chaque type) pour tester directement des traces de Ca, Cb et Cc dans notre environnement socio-économique. C’est cette démarche que pour ma part je poursuis au sein du LIEPP et qui a donné naissance notamment au rapport interdisciplinaire d’évaluation du CICE, à une méta-analyse des politiques d’allègements de cotisations sociales ou à des travaux sur les politiques de soutien aux services à la personne, qui après une vie académique internationale vont bientôt connaître un débouché national plus grand public dans un ouvrage publié à la république des idées.

On peut aussi construire un nouveau modèle lui-même interdisciplinaire en se basant sur des hypothèses prenant en compte les résultats de diverses sciences sociales : si superH alors C. Si une telle démarche est évidemment louable, et peut s’avérer très précieuse, il conviendra de garder à l’esprit qu’une tel modèle, même particulièrement finement tuné, reste une modélisation partielle et donc limitée de la réalité socio-économique, dont les résultats, aussi riches soient-ils, devront être analysés au regard des hypothèses de modélisation et mériteront d’être confrontés à d’autres hypothèses et d’autres analyses. L’interdisciplinarité est précieuse par l’analyse contradictoire des arguments et la réunification éventuelle des sciences sociales doit conserver la richesse de la diversité de ses approches. Nous aurions tout perdu si l’interdisciplinarité ne consistait qu’à construire un super marteau pour taper sur les clous, les vis, les planches et les doigts des autres approches en sciences sociales.

[retour ; haut de page]

Pour une défense du matérialisme

la Vie des idées, le 27 septembre 2016.

Dans le texte Comprendre le capitalisme, paru sur le site de La Vie des idées [1], Geoffrey Hodgson cherche à faire le point sur la définition du système capitaliste. De nombreux prédécesseurs se sont attelés à la tâche, rappelant que l’organisation de marchés était en soi insuffisante pour définir et donc comprendre le système capitaliste. Ces études ont souvent insisté sur la construction de marchés pour organiser l’échange de l’ensemble des moyens de production et en particulier la terre et le travail. Ce texte insiste plus particulièrement sur la construction de droits spécifiques qui ont permis l’extension de la propriété aux biens immatériels et en particulier aux titres de dettes : le point déterminant serait la possibilité juridique donnée à la construction des marchés financiers. Ainsi G. Hodgson « propose une définition du capitalisme qui inclut la propriété privée, la généralisation des marchés et des contrats de travail, et l’existence d’institutions financières bien développées ».

Ces développements sont à la fois intéressants et convaincants. Malheureusement, l’auteur a tendance à céder à l’illusion de la révolution, en présentant un facteur essentiel du développement d’un système comme le facteur prépondérant, et réduisant les autres à des corolaires. C’est ainsi que ce texte me semble sujet à deux limites : un rejet peu argumenté du matérialisme et une vision erronée du marché du travail « idéal » d’une économie de capitalisme pur.

Un idéalisme implicite et en mal d’arguments

Geoffrey Hodgson construit sa vision du système capitaliste en opposition à ce qu’il présente comme la conception usuelle, basée sur les forces économiques liées aux technologies et aux rapports de production. Par ce positionnement, il situe sa contribution dans le cadre du débat qui oppose matérialisme et idéalisme :

Il va de soi que la technologie est une condition nécessaire au progrès dans de nombreux domaines (…) mais il faut également s’interroger sur les conditions qui permirent l’évolution et la diffusion de ces nouvelles technologies.

Il est en effet primordial de s’interroger sur ces conditions, et quiconque s’est intéressé à l’histoire sait que la superstructure et l’infrastructure, puisqu’il faut nommer les concepts par leur nom, évoluent concomitamment : leurs interactions sont primordiales dans la compréhension des sociétés [2]. En soi, le message pourrait être relativement consensuel : vous avez trop mis l’accent sur l’infrastructure et avez négligé la superstructure. Or, même chez nombre de matérialistes, le capitalisme a été défini par sa superstructure, tout en considérant que les fondements de cette superstructure étaient causés par l’infrastructure. C’est là un point essentiel pour comprendre l’intérêt et les limites de la thèse de G. Hodgson : définition ne vaut pas cause. Son ouvrage se fixe comme objectif de définir le capitalisme, pour mieux le comprendre. Bien souvent, il pousse au delà en interprétant les éléments constitutifs de la définition du capitalisme – en particulier sa superstructure – comme ses causes fondamentales ; c’est cette interprétation que je conteste.

De plus, l’auteur tombe dans le travers classique de ceux qui veulent insister sur la nouveauté de leur contribution en minorant ce qui a été fait avant sur le sujet et en construisant un ennemi plus méchant qu’il n’est. Ainsi, la question de la minimisation de l’importance de la finance par ses prédécesseurs est pour le moins exagérée :

Je ne suis certes pas le seul à affirmer que c’est l’émergence d’institutions financières sophistiquées qui marque l’avènement du capitalisme, mais on peut tout de même se demander pourquoi tant d’économistes et d’historiens, Marx y compris, ont choisi de minimiser l’importance de ces évolutions essentielles.

L’exemple est particulièrement mal choisi quand Marx considère justement le capital financier comme le capital par excellence du développement capitaliste, et qu’il consacre l’intégralité du tome 2 du livre III de son œuvre majeure à ce sujet [3].

Pour revenir à la question, on pourrait objecter que Geoffrey Hodgson ne prend pas clairement parti pour l’idéalisme mais qu’il critique le manque d’intérêt des matérialistes pour la superstructure. Cela me semble faux pour nombre de matérialistes, mais encore plus faux pour l’ensemble des auteurs ayant pensé le système économique, Marx notamment. Keynes, certes un idéaliste mais pas si marginal dans la pensée économique du capitalisme, présente justement le système financier comme la clef de la compréhension des conjonctures économiques [4]. Malheureusement, l’auteur ne se contente pas d’un tel message et critique la légitimité même de l’étude de l’infrastructure :

Il faut abandonner les métaphores physiques basées sur des images d’entités et de forces, et présenter l’économie comme un système de traitement de l’information en perpétuelle évolution, impliquant la création, l’attribution et l’échange de droits juridiques appliqués à différents types d’actifs.

Or, l’importance de la construction juridique de la possibilité des marchés financiers ne va aucunement à l’encontre de l’importance de l’évolution matérielle des modes de production. Et ceux-ci s’expriment en termes de forces. Dire que le capitalisme se définit par sa capacité à organiser juridiquement la finance ne disqualifie en rien une analyse de l’infrastructure qui a nécessité cette construction juridique pour se développer. Et ce d’autant plus que rien n’indique dans le raisonnement de l’auteur que cette construction juridique serait venue d’autre chose que des besoins créés par une production dont l’évolution s’est trouvée en butte à la question de la finance. Cette évolution institutionnelle de la finance serait alors le fruit de l’évolution de la production et des rapports de force sociaux qu’elle engendre.

Ainsi, il cite la Glorieuse Révolution de 1688 comme point de départ du processus de transformation des droits sur la dette permettant le développement de la finance, et note que cette « “révolution financière”, (…) en partie initiée par l’État, [a préparé] le terrain pour la révolution industrielle à venir ». C’est un fait, mais cette construction juridique n’est pas venue de purs débats d’idées. Elle est venue des rapports de forces au sein des organes décisionnels anglais, rapports de force dans lesquels les marchands avaient acquis du pouvoir du fait de leur essor économique. Décrivant la période précédant cette Glorieuse Révolution, North et Weingast (1989) [5] parlent d’une lutte continuelle opposant le Roi à la fois au Parlement et aux tribunaux de common law, précisément sur le sujet des droits de propriété et de la manière dont la couronne « empruntait » ses ressources financières. Geoffrey Hodgson dit d’ailleurs lui-même que ce traitement juridique est venu d’une demande des hommes d’affaires :

Au XVIIe siècle, suite à l’échec des tribunaux de droit commun au sujet de la négociabilité de la dette, les hommes d’affaires du pays demandèrent au Parlement de mettre en place une législation plus robuste.

D’ailleurs, pour revenir sur les sources de ces « nouveaux accords politiques de 1688 », le poids de la dynastie néerlandaise des princes d’Orange dans cette révolution anglaise n’est pas seulement le fruit d’une histoire d’amour entre la fille de Jacques II et le Stathouder de Hollande, mais est bien lié à l’importance qu’avait pris le commerce mondial et la part prépondérante des princes d’Orange dans celui-ci. La Glorieuse Révolution n’a pas seulement inscrit juridiquement la possibilité de l’essor capitaliste, elle est aussi le résultat de ses premiers développements. Dans son livre [6], Geoffrey Hodgson note bien ces influences :

La Glorieuse Révolution anglaise de 1688 était en réalité une invasion néerlandaise, quoiqu’elle fût précédée d’une invitation par un évêque et six membres de la noblesse. (…) Cette invasion fit basculer l’allégeance de l’Angleterre envers la Couronne française vers la Couronne néerlandaise et provoqua un afflux de marchands, banquiers, artistes et scientifiques néerlandais. Les négociants néerlandais amenèrent avec eux une connaissance précise des institutions financières et permirent à Londres de devenir le premier centre financier mondial.

Ainsi, s’il est vrai que la constitution d’un droit de propriété permettant les marchés financiers a été essentielle au capitalisme, cela ne diminue en rien le caractère tout aussi essentiel de l’analyse matérialiste des fondements productifs qui ont nécessité le développement de ces marchés. Certes, des matérialistes ont poussé trop loin cette voie en présentant la superstructure comme une fonction déterministe de l’infrastructure. C’est également faux. La superstructure ne découle pas directement et univoquement de l’infrastructure. Il existe des choix sociaux et des variantes à ces superstructures [7], mais l’infrastructure impose des contraintes fortes qui font que les différentes variantes ont nombre de points communs entre elles, qui justement font que toutes ces variantes sont capitalistes. Il est donc important de comprendre ces rapports de forces infrastructurels pour analyser comment ils sont traités par diverses régulations. Si à l’inverse on néglige ces rapports de force issus des conditions matérielles de production, on risque de manquer certains enjeux prépondérants dans les débats autour des formes juridiques de régulation du capitalisme.

Une vision erronée du marché du travail de pur capitalisme

Ce manque d’intérêt pour les développements matériels du processus productif capitaliste se révèle en particulier lorsque Geoffrey Hodgson traite la question du marché du travail. Il fait un profond contresens en voulant voir dans l’abolition de l’esclavage l’exemple de la primauté des structures de l’esprit sur ce qu’il croit être les développements du capitalisme poussés par son infrastructure :

Dans la mesure où l’abolition de l’esclavage et l’adoption du contrat de travail excluent la possibilité d’un marché à terme total de la main d’œuvre, il existe forcément des défaillances de marché dans le système capitaliste. […] En refusant l’esclavage et en développant le travail salarié, le capitalisme a fondamentalement limité la portée des marchés, en empêchant la création d’un marché à terme total de la main d’œuvre. […] C’est grâce aux idées des Lumières sur la liberté individuelle et l’égalité juridique que le capitalisme a pu voir le jour. Or il est juste que nous ne soyons pas libres de réduire les autres en esclavage, de vendre des esclaves, ou de devenir nous-mêmes esclaves.

En présentant cet exemple ainsi, il pose implicitement deux hypothèses qu’il semble présenter comme des résultats de son analyse. Premièrement, le développement du capitalisme pur passerait par l’esclavage, et le salariat ne serait qu’un pis-aller compte tenu de l’absence d’esclavage. Deuxièmement, l’abolition de l’esclavage serait le fruit d’un développement des idées humanistes et non le fruit d’un développement des conditions matérielles de production puisqu’au contraire ce dernier développement préfèrerait l’esclavage. À mon sens, ces deux hypothèses sont fausses, car l’abolition de l’esclavage ne s’oppose en rien au développement économique capitaliste, il en est au contraire le fruit et non celui des idées humanistes.

Certes, des auteurs [8] ont publié dans les années 1970 une analyse cliométrique estimant que l’esclavage était encore une forme productive efficace lors de son abolition aux États-Unis. Toutefois, non seulement ces résultats ont été fortement contestés, mais surtout les auteurs eux-mêmes notaient bien que ce mode d’exploitation de la force de travail ne restait rentable que dans des contextes et pour des cultures très particulières. Ils trouvaient que l’esclavage n’aurait plus été rentable dans le Nord, non seulement dans l’industrie bien évidement, mais également dans l’agriculture. Il est important à ce propos de noter que l’esclavage avait alors déjà disparu dans ces États du Nord.

Plus généralement, un point fondamental de l’analyse économique du capitalisme est la question de l’allocation des facteurs de production. On retrouve cette problématique dans quasiment toutes les théories économiques classiques, depuis Adam Smith jusqu’à l’analyse dominante moderne en passant par la définition de la discipline elle-même par Lionel Robbins : « l’économie est la science qui étudie le comportement humain en tant que relation entre les fins et les moyens rares à usage alternatif » [9]. Or, l’utilisation optimale de la force de travail – sous-entendu la plus productive – n’est absolument pas l’esclavage. Ce qui importe est bien la force de travail du travailleur et non le travailleur lui-même, et ce n’est pas en possédant le travailleur qu’on s’assure la plus grande force de travail.

En laissant la charge au travailleur d’entretenir lui-même sa force de travail, on peut arriver à obtenir du travail plus productif, et c’est bien par le salariat (voire en rendant le travailleur encore plus « libre » via un statut d’indépendant) qu’on peut obtenir cette force de travail maximale. Ceci est d’autant plus vrai au fur et à mesure que la technologie demande du travail de plus en plus qualifié. Ainsi, l’esclavage se révèle de plus en plus obsolète au fur et à mesure du développement du capitalisme, et son abolition répond au développement matériel des conditions de production au lieu d’en être un frein, qui aurait été imposé par des philosophies humanistes.

De ce point de vue, une rapide lecture historique est assez éloquente. En Europe, l’esclavage a disparu pendant la haute période féodale, au profit du statut de serf devenu petit à petit prépondérant. Celui-ci a lui-même commencé à disparaître au bas Moyen Âge. Si les Capétiens ont affranchi tant de serfs aux XIIIe et XIVe siècles, ce n’est pas uniquement par conscience morale, mais parce qu’ils y voyaient un intérêt économique ; Marc Bloch note même que « le nombre des affranchissements fut, en dernière analyse, fonction des conditions économiques du lieu et du moment » [10].

Pour ce qui concerne l’un des affranchisseurs les plus actifs, à savoir Philippe le Bel, l’intérêt économique de l’affranchissement lui a d’ailleurs été suggéré par ses ministres, qui devaient précisément leur place au développement économique et à l’essor de la bourgeoisie qu’il avait permis. Les progrès techniques agricoles, et les besoins de superstructure pour permettre leur mise en place effective, ont participé au fait qu’on pouvait finalement tirer plus d’un travailleur libre bien imposé que d’un serf. C’est alors un système apparenté au métayage qui est apparu, puis s’est imposé avec la raréfaction de la main d’œuvre consécutive à la guerre de Cent Ans et à la peste noire, le salariat ne se généralisant que bien plus tard avec d’autres besoins spécifiques dans l’utilisation de la main-d’œuvre.

Bien sûr, le lien entre développement productif et statut des travailleurs ne fut ni déterministe ni univoque. Les retours en arrière opérés par la réaction féodale à la suite du règne du roi de fer – et le passage de son coadjuteur, issu de la bourgeoisie, à Montfaucon – en sont la preuve. Mais à l’époque de la découverte du Nouveau Monde, l’esclavage avait depuis longtemps disparu d’Europe et le servage en avait fait autant. Ce sont bien les conditions économiques de défrichement et de culture particulières des colonies qui ont relancé l’esclavage et non un retour en arrière des idées philosophiques à l’époque de la Renaissance.

De même, la fin définitive de l’esclavage n’est pas la simple conséquence de la philosophie des Lumières, contrairement à ce que Geoffrey Hodgson avance. Il est notable qu’en France par exemple, quelques années après la fièvre démocratique qui avait poussé la convention à abolir l’esclavage en 1794, celui-ci ait été rétabli pour de nombreuses décennies [11]. Si l’abolition définitive a été le fruit d’engagements éthiques personnels, tel celui de Victor Schœlcher, il a été aussi fortement lié au fait que cette forme de travail n’était plus si nécessaire au développement économique des colonies. Dans ce sens, le cas des États-Unis est également marquant, où le Nord industriel avait de fait aboli l’esclavage depuis longtemps, non pour des raisons humanistes mais bien parce qu’il n’était pas utile au développement de son industrie.

Geoffrey Hodgson, dans sa défense d’une approche institutionnaliste de l’analyse économique, insiste sur l’importance du cadre juridique dans le développement du capitalisme. Son analyse, très éclairante à ce sujet, a tendance à négliger les forces économiques pour ne valider qu’une histoire des institutions via le développement des idées. Or, même si les institutions ne découlent pas de manière déterministe des conditions matérielles de production, celles-ci jouent très fortement dans leur établissement.

Notes

[1] L’article de G. Hodgson est une présentation de son ouvrage Conceptualizing Capitalism : Institutions, Evolution, Future (University of Chicago Press, 2015).
[2] Rappelons ici que la superstructure désigne dans la philosophie de Marx le cadre de l’activité économique, défini par les valeurs morales et philosophiques, les institutions et les relations formelles de pouvoir entre les individus ; quand l’infrastructure désigne les conditions matérielles de production, qui renvoient à des conditions techniques et technologiques ainsi qu’aux relations réelles de pouvoir entre les classes.
[3] Karl Marx, Le Capital, livre III, Le procès d’ensemble de la production capitaliste, tome 2, Éditions sociales.
[4] John Maynard Keynes (1935) The General Theory of Employment, Interest and Money, BN publishing, 2008. Dans le chapitre 12, « The State of Long-Term Expectation », il élabore la parabole du concours de beauté pour présenter le caractère autoréférentiel des marchés financiers, source de bulles et de crises.
[5] Douglass C. North et Barry R. Weingast (1989) “Constitution and Commitment : The Evolution of Institutional Governing Public Choice in Seventeenth-Century England”, The Journal of Economic History, Vol. 49(4), p. 803-832.
[6] Geoffrey Hodgson (2015), op. cit., p. 159-160.
[7] On retrouve particulièrement ces problématiques dans les littératures de la théorie de la régulation et de la variété du capitalisme.
[8] Robert William Fogel et Stanley L. Engerman (1974) Time on the Cross : The Economics of American Slavery, W. W. Norton & Company, New-York, 1995.
[9] Lionel Robbins (1932) An Essay on the Nature and Significance of Economic Science, MacMillan and Co., Londres.
[10] Marc Bloch (1920) Rois et serfs : Un chapitre d’histoire capétienne et autres écrits sur le servage, Champion, Paris.
[11] Pour une analyse détaillée des débats, aussi bien dans les assemblées parisiennes que dans les champs haïtiens, voire C. L. R. James (1963) The Black Jacobins, Vintage books edition, New York, 1989.

[retour ; haut de page]

Théorie Lavoisienne de la valeur appliquée au non-deal Bouygues-Orange

10 avril 2016

« Rien ne se perd, rien ne se crée, tout se transforme », cette aphorisme attribué à Lavoisier s’applique-t-il à la valeur ? Le journal « Les Échos » ne semble pas le penser puisqu’il titrait ce mardi 5 avril 2016 « Télécoms : plus de 10 milliards partis en fumée en Bourse ». Ceci faisait référence à la baisse de cotation des actions des quatre opérateurs téléphoniques après l’annonce de l’abandon des négociations entre Orange et Bouygues. Les négociations étaient en cours pour repasser de quatre à trois opérateurs téléphoniques. Le principe général était un partage de Bouygues entre les trois opérateurs restants (pour garder un équilibre entre les trois). En pratique, c’est Orange qui devait réaliser l’opération de rachat puis vendre des parties à ses concurrents. Les marchés financiers devaient voir sous un bon œil ce rachat puisqu’ils ont fortement diminué la valorisation boursière des quatre opérateurs après l’échec de l’opération. Pour autant, regarder uniquement les capitalisations boursières de quatre opérateurs téléphoniques peut s'avérer un peu léger pour dire que de la valeur est partie en fumée. Est-ce vraiment de la valeur qui a disparu ? A-t-elle vraiment disparu où a-t-elle été transférée ? Qui seraient alors les bénéficiaires et les perdants du transfert ? Posons-nous deux minutes et tentons de raisonner calmement.

Pour commencer, il faut se demander ce qu’est cette capitalisation boursière qui a baissé ? Selon la théorie standard de la valeur fondamentale, la capitalisation boursière serait égale à la somme des dividendes futurs actualisés [1] qui serait donc cette « valeur fondamentale » de l’entreprise. Si on croit cette théorie, le principe serait que le rachat de Bouygues par Orange (et son partage avec les autres opérateurs) devait permettre d’augmenter les profits futurs des opérateurs et donc les dividendes qu’ils auraient versés à leurs actionnaires. Les 10 milliards d’euros seraient alors ces profits supplémentaires qui n’auront pas lieu. C'est finalement en considérant ce principe que les échos considèrent que 10 milliards sont partis en fumée.

Toutefois, ce principe théorique est loin d'être évident. Il existe tout d'abord de grandes raisons de se tromper dans son évaluation des flux de profits futurs (nous y reviendrons plus spécifiquement) et cette information imparfaite peut mener à des processus faisant dévier la valeur de la capitalisation boursière loin de la valeur fondamentale. Le premier point est que quand un individu achète un titre, ce peut être pour en toucher les dividendes, ou pour le revendre plus cher plus tard. Dans ce second cas, ce qui l'intéresse n'est pas directement la valeur fondamentale de ce titre, mais la manière dont ce titre est et sera évalué par les marchés aux dates d'achat et de vente. Ainsi, sa seule question pour décider d'acheter un titre aujourd'hui n'est pas de savoir si son prix est supérieur ou inférieur à sa valeur fondamentale, mais si sa valorisation par le marché va augmenter ou baisser. Or, cette variation de la valorisation elle-même dépend du fait que beaucoup de gens vont vouloir l'acheter ou non. On entre ainsi dans un processus auto-référentiel qui peut se déconnecter fortement de toute valeur fondamentale. C'est ce que Keynes présentait sous la parabole du concours de beauté :

« La technique du placement peut être comparée à ces concours organisés par les journaux où les participants ont à choisir les six plus jolis visages parmi une centaine de photographies, le prix étant attribué à celui dont les préférences s'approchent le plus de la sélection moyenne opérée par l'ensemble des concurrents. Chaque concurrent doit donc choisir non les visages qu'il juge lui-même les plus jolis, mais ceux qu'il estime les plus propres à obtenir le suffrage des autres concurrents, lesquels examinent tous le problème sous le même angle. Il ne s'agit pas pour chacun de choisir les visages qui, autant qu'il peut en juger, sont réellement les plus jolis ni même ceux que l'opinion moyenne considèrera réellement comme tels. Au troisième degré où nous sommes déjà rendus, on emploie ses facultés à découvrir l'idée que l'opinion moyenne se fera à l'avance de son propre jugement. Et il y a des personnes, croyons-nous, qui vont jusqu'au quatrième ou au cinquième degré ou plus loin encore. »

Certes, des économistes avancent que des spéculateurs avisés – appelés des arbitragistes – font leur beurre en prenant des positions pour bénéficier des écarts entre prix et valeur fondamentale. Leurs interventions (augmentation de la demande quand les prix sont plus bas que la valeur fondamentale – ils achètent bon marché – et augmentation de l’offre quand les prix sont au-dessus de la valeur fondamentale – ils vendent cher) permettraient de ramener les marchés financiers vers les valeurs fondamentales des actifs. Or c'est tout à fait douteux. Comme le montre assez bien le livre et le film « the big short » (duquel vous trouverez un commentaire détaillé sur ce blog), les arbitragistes ne sont pas assez influents pour modifier suffisamment les marchés financiers. Ils arrivent au mieux à gagner de l'argent sur des écarts qu'ils auraient bien anticipés, à moins qu'ils ne fassent faillite avant que les astres ne se réalignent. Ainsi, les 10 milliards dont parlent « Les Échos » ne seraient pas de la valeur mais la manière dont les acteurs sur les marchés financiers évaluent ce que pourrait être l’évaluation par l'ensemble de leurs confrères de ce que pourrait être l'anticipation par les marchés financiers de la perte de valeur future actualisée.

Changement de potentialité de valeur

Quand bien même nous aurions une confiance aveugle dans l'efficacité allocative des marchés financiers – c'est à dire en supposant que ces marchés auraient la faculté de valoriser les entreprises selon leur flux de revenus futurs – ce n'est pas directement de la valeur, ni même de l'argent qui a disparu. Rien de réel n’a été détruit, il ne s’agit que de potentialité de valeur qui disparait, donc pas en fumée, mais en rêve. Rien n’est plus incertain que l’avenir. Peut-être découvrira-t-on d’ici la réalisation de cette valeur potentielle un nouveau moyen de communication qui rendra les opérateurs totalement obsolètes. Dans ce cas, la réalisation de leur valeur future aurait été zéro avec ou sans la concentration du marché, donc aucune valeur n’aurait été perdue, même dans le futur. On est donc bien dans de la probabilité de valeur potentielle future qui aurait été évaluée à la baisse par les marchés financiers.

Certes, d’aucun feront remarquer qu’il y a bien aujourd’hui des individus qui ont gagné ou perdu de l’argent. Mais il s’agit là de transactions : l’argent est passé d’un individu à un autre. Ce transfert de valeur entre deux individus ne constitue ni une création ni une destruction valeur. Surtout, ces gens ayant effectué les transactions comptent pour bien moins des 10 milliards, car une faible part des actions des quatre opérateurs ont changé de portefeuille. Les 10 milliards sont calculés en imputant à chaque action la diminution de prix observée sur les actions qui ont été échangées. Les gens qui les ont gardé n’ont aujourd’hui ni perdu ni gagné, leurs gains ou pertes dépendront du flux de dividende qu’ils percevront jusqu’à la vente de l’action et du prix de cette vente.

Lavoisier avait bien tort, de la valeur future est en fait apparue

Allez, arrêtons de faire du mauvais esprit et acceptons l’idée que les marchés financiers évaluent de manière tout à fait exacte la chute de profits futurs des opérateurs, non pas potentielle mais bien celle qui va se produire car elle ne sera impactée par aucun aléa économique à venir. L’avenir est certain et révélé par les marchés financiers. Ces 10 milliards ont alors bien disparu, non ? Toujours pas ! Ces 10 milliards de valeur future auraient alors quitté les quatre opérateurs, mais non pour disparaître. Le réseau n’a pas été détruit, la production de communication n’a en rien baissé non plus. En fait, ces 10 milliards viendraient du fait qu’à trois on a plus de pouvoir de marché qu’à quatre et qu’on peut faire payer plus cher pour les mêmes prestations. Ainsi, ces dix milliards de valeur future actualisée potentielle ne seraient pas partis en fumée mais auraient été transférés dans les porte-monnaie futurs actualisés potentiels des consommateurs (car du fait de l’absence de concentration du marché, ils paieraient moins cher leurs communications).

Pire, un plus grand pouvoir de marché permet à une entreprise de faire plus de profit car elle peut augmenter les prix et restreindre les volumes (l’un n’allant pas sans l’autre du fait de la réaction de la demande) en comptant sur le fait que la hausse du profit liée à la hausse des prix est supérieure à la baisse des profits liée à la baisse des volumes. Dans ce cas-là, Lavoisier aurait tort et le transfert qui aurait eu lieu des consommateurs vers les opérateurs si le rachat avait eu lieu aurait été destructeur de valeur : les opérateurs auraient récupéré moins que n’auraient perdu les consommateurs. Ceci veut dire que quand les opérateurs ont perdu 10 milliards en bourse, c’est que les consommateurs ont vu leur portefeuille futur potentiel se gonfler de strictement plus que 10 milliards. Les 10 milliards ne seraient pas partis en fumée mais seraient partis dans les poches des consommateurs en faisant des petits.

Les causes d’une destruction possible de valeur future

Maintenant, si on veut être tout à fait honnête, une fois qu’on a évoqué la possibilité que l’échec de l’accord ait en réalité créé de la valeur totale, il faut évoquer la possibilité qu’il en ait détruit. Deux arguments peuvent être avancés. Premièrement, la structure productive du secteur consiste à construire un réseau de télécommunications auquel accèdent les clients. Or, les quatre opérateurs ont actuellement des réseaux plus ou moins complets. Le rachat de Bouygues et le partage de son réseau devait permettre aux autres opérateurs de compléter leur propre réseau et ainsi d’offrir à leurs clients un service de meilleure qualité. Cette amélioration moyenne des réseaux – qui n’aura pas lieu – aurait effectivement constitué une création de valeur, qualitative et non quantitative.

Deuxièmement se pose la question de la dynamique de l’amélioration des réseaux. Le réseau coûte cher à entretenir et à développer (géographiquement et pour ce qui concerne les nouvelles technologies). Les investissements sont donc réalisés si les opérateurs anticipent de forts rendements à ces investissements et s’ils ont les crédits pour le faire. Il est donc possible de soutenir qu’en empêchant les opérateurs d’augmenter leur profit futur, on a limité leurs facultés à investir dans l’amélioration du réseau, et donc on a limité leur création future de valeur qualitative. Toutefois, le même argument peut être retourné en disant qu’en limitant la concurrence entre les opérateurs, on aurait assuré leurs parts de marché et rendu moins nécessaire pour eux la course à la qualité.

Quoi qu’il en soit, même si ces deux hypothèses se révélaient effectives, il faudrait un miracle pour que la perte de valeur future actualisée (qui consisterait en la différence entre l’augmentation quantitative liée aux prix bas et la diminution de qualité liée à une plus faible mutualisation des réseaux et de plus faibles investissements) soit exactement égale aux 10 milliards de diminution de la capitalisation boursière des quatre opérateurs français. Ainsi, si je suis bien sûr d’une chose, c’est que ce ne sont pas 10 milliards qui sont partis en fumée.

[1] Le terme "actualisés" veut dire qu’on valorise à la date présente l’ensemble des gains à différentes dates. En effet, on ne valorise pas de la même manière un euro aujourd’hui et un euro demain. Il faut donc apporter en correctif lié à "la préférence pour le présent" aux revenus futurs quand on somme des revenus à différentes dates. Le fait d'opérer ce correctif est appelé actualisation.

[retour ; haut de page]

Comment agir contre les inégalités ? À propos de : Anthony B. Atkinson, Inégalités (Inequality. What Can Be Done ?), Seuil

la Vie des idées, le 28 mars 2016.

Anthony Atkinson publie un ouvrage à la fois très complet et très intuitif, qui embrasse la question des inégalités en essayant d’être le plus exhaustif possible. Il constitue une excellente introduction au domaine en même temps qu’un résumé de la connaissance économique sur la question. L’auteur ne se contente pas de réaliser une synthèse accessible de travaux existants mais propose dans un deuxième temps ses solutions pour réduire les inégalités effectives.

Ce qu’il faut savoir sur les inégalités

Le livre se découpe en trois parties, et la première – un grand état des lieux des connaissances – se suffirait à elle seule. L’auteur parvient à la fois à présenter le nombre très divers des dimensions de la question, à expliquer leur grande complexité, tout en restant clair et pédagogique.

Pourquoi s’intéresser aux inégalités ?

Anthony Atkinson défend d’abord son champ de recherche. Au milieu du grand écho qu’avait soulevé en 2013 le livre de Thomas Piketty, de nombreuses voix s’étaient en effet levées pour dire que les inégalités effectives ne sont pas un problème, et que seule compte l’égalité des chances. Avant cela, le rapport Attali pour la libération de la croissance préconisait que l’enseignement de l’économie dès le primaire devait « montrer que le scandale est dans la pauvreté plus que dans la richesse, dans les injustices plus que dans les inégalités ». Pour Anthony Atkinson, les inégalités comptent, y compris les inégalités des situations effectives.

L’auteur cite sans trop avoir l’air d’y croire les études et les arguments liant les d’inégalités et les questions de cohésion sociale et de criminalité. Il s’interroge surtout sur le caractère réducteur de l’égalité des chances. Devrait-on s’accommoder des différences d’aléas tout au long du parcours ? Abandonner ceux qui décrochent sous prétexte qu’ils avaient les mêmes chances ? Et surtout, lorsqu’on organise une compétition (quand bien même il nous paraîtrait souhaitable d’organiser ainsi la société) devrait-on seulement s’intéresser à l’égale application des règles ou est-il légitime de s’intéresser aussi à la structure des récompenses ? Si les modèles néoclassiques montrent l’efficacité de la situation issue d’une hypothétique concurrence parfaite, ils montrent aussi la multiplicité des situations efficaces et le fait que le résultat concurrentiel n’a aucune raison d’être souhaitable du point de vue de l’équité.

Et quand bien même on ne s’intéresserait qu’à l’égalité des chances, l’auteur rappelle que les inégalités effectives pour une génération ont des conséquences sur l’égalité des chances de la génération suivante. Dans un livre paru en 2015, Our Kids. The American Dream in Crisis, Robert Putnam montre les changements opérés dans la société américaine, notamment en termes de lutte contre les inégalités, et l’impact que cela a sur l’égalité des chances. Des économistes américains avaient étudié en 2014 les différentiels régionaux de mobilité intergénérationnelle et trouvé de nombreux déterminants, dont les institutions luttant contre les inégalités [1]. Pour le cas de la France, il a été montré que des caractéristiques sociales des parents avant la naissance de leurs enfants suffisaient à expliquer près de la moitié des différences de santé de ces derniers à l’âge adulte [2]. De même, l’influence familiale explique plus de la moitié des différences de niveaux d’étude [3] et l’INSEE vient de publier que l’espérance de vie à 30 ans d’un titulaire d’un diplôme supérieur est supérieure de 1,8 années à celle d’un bachelier, de 3,6 ans à celle d’un titulaire de CAP-BEP et de 7,6 ans à celle d’un sans diplôme. En définitive, séparer l’égalité des chances de l’égalité des réalisations paraît bien artificiel puisque la seconde est une condition de la première.

La mesure des inégalités

Il ne suffit pas de savoir pourquoi on s’intéresse aux inégalités, il faut être capable de les mesurer. Les choix d’échelle de la mesure (principalement l’individu ou la famille) ou d’unité de mesure (revenu, consommation, patrimoine) ont un impact sur la manière d’interpréter les chiffres : en termes de comparabilité des mesures, de valorisation de l’autonomie, d’inégalités dans la satisfactions des besoins, d’inégalités de confort, de prix d’accès, d’influence. Tout cela dépend aussi de la cause des évolutions : dispersion des salaires, du chômage et de l’inactivité, du partage de la valeur ajoutée entre le travail et le capital, de la concentration du capital, de variations dans les transferts sociaux ou la progressivité de l’impôt.

Anthony Atkinson éclaire également le lecteur sur les différences des mesures elles-mêmes, qui se résument bien souvent à des indices se focalisant sur certaines parties de la distribution des revenus. Il montre comment l’envol des 1 % est fortement corrélé à l’augmentation de la pauvreté, mais aussi comment les inégalités peuvent s’accroitre entre certaines parties de la distribution des revenus et en même temps se réduire entre d’autres parties. Enfin, il présente les mouvements parallèles et les divergences entre les trajectoires d’inégalités entre pays.

Il ne cache pas les lacunes des bases données permettant d’étudier les inégalités, mais il défend la robustesse et l’intérêt des résultats statistiques, citant Zvi Griliches : « Les statistiques économiques disponibles sont notre principale fenêtre donnant sur le comportement économique. Même si la vitre est rayée et le brouillard persistant, nous ne pouvons nous empêcher de regarder à travers pour tenter de comprendre ce qui se passe. » [4]

Description des inégalités, de leur hétérogénéité

Cette première partie se clôt par une description historique et internationale des inégalités. Atkinson retrace l’évolution bien connue : les inégalités diminuent de l’après Seconde Guerre mondiale jusqu’au début des années 1980, puis augmentent par la suite (sauf pour la France où elles n’ont commencé à remonter qu’à partir des années 2000). L’auteur cherche alors à mettre en parallèle les légères différences d’évolution entre pays avec les différences socio-politiques entre ces pays et met en lumière divers mécanismes : aussi bien économiques – comme le progrès technologique biaisé en faveur des plus qualifiés – qu’institutionnelles – comme le recul de la représentation syndicale. Si une partie de ce recul est expliquée par sa répression, notamment sous l’ère Thatcher au Royaume-Uni, il montre que la baisse tendancielle du taux de syndicalisation est un phénomène mondial, qui se poursuit. On aurait aimé plus d’explications sur cette baisse et ses implications, bien que le livre ne puisse être exhaustif.

Pour les pays champions de la remontée des inégalités, les États-Unis et le Royaume-Uni, Anthony Atkinson note – sans pour autant négliger l’importance de la concentration des capitaux – que la croissance des inégalités concerne surtout les salaires. On sent toutefois qu’il cherche à ne pas entrer totalement dans le débat sur le patrimoine immobilier, qui nécessiterait à lui seul plusieurs livres. Pourtant, cette question est essentielle, tant une grande part de l’augmentation de la valeur des stocks de patrimoine [5] vient de l’immobilier, et non seulement de son volume mais de son prix. Ceci a de grandes influences sur la mesure et la dynamique des inégalités [6], aussi bien les inégalités de patrimoine que les inégalités de revenus, dès lors que l’on considère les services de son propre logement comme une forme de revenu en nature.

Un programme de réforme presque complet

Une défense générale de propositions précises

Les deux parties suivantes s’engagent dans la recommandation de réformes (partie 2) et leur défense contre les critiques potentielles (partie 3). Malheureusement, cette séparation en deux parties n’est à pas à l’avantage de l’argumentation car les propositions sont multiples et précises mais les réponses générales. En fait, les réponses apportées ne concernent que deux grandes critiques habituellement adressées aux politiques redistributives de lutte contre les inégalités : 1) la redistribution réduit la taille du gâteau (c’est-à-dire le montant total des revenus d’une société), 2) ces propositions coûtent trop cher.

Commençons par commenter ces deux réponses générales et leur limite. La réponse à la première critique se focalise sur la présentation d’arguments théoriques indiquant que le gâteau ne diminue pas forcément, pas toujours. Trouvant peu convaincants les arguments empiriques, Anthony Atkinson rejette l’idée de présenter des résultats d’analyses quantitatives, de chercher quels types de modifications des allocations de marché ou de redistributions peuvent être favorables à la production globale. Mais il ne suffit pas de dire qu’il existe des effets positifs pour contrer les critiques présentant des effets négatifs, encore faut-il montrer que les effets positifs dominent. L’argumentation peine donc à convaincre pleinement sur ce point. De plus, une réponse potentielle est oubliée, celle qui consiste à dire qu’un gâteau plus petit mieux partagé peut aussi être souhaitable, et ce d’autant que la manière de mesurer le gâteau – le PIB – est loin d’être exempte de tout reproche.

La réponse à la seconde critique, sur le coût des réformes, est donnée à partir du modèle de micro-simulation fiscale Euromod, qui est accessible en ligne et permet aux chercheurs de réaliser des simulations des changements de taxation sur les revenus et comportements des ménages Atkinson montre ainsi qu’une réduction des inégalités par la redistribution n’entraînerait pas de coût supplémentaire. Mais les simulations de l’auteur se fondent sur l’hypothèse que les individus n’adapteraient pas leur comportement suite à la mise en place des réformes fiscales redistributives. Or, les critiques, aussi bien sur la question de la taille du gâteau que sur le côté négatif du coût des réformes, reposent bien sur les impacts de ces réformes sur les comportements des individus et des ménages. Un argument classique contre les mesures redistributives est en effet de dire que les entrepreneurs prendraient moins de risque si leur revenu était plus taxé.

L’auteur est plus convaincant lorsqu’il évoque la possibilité de retirer des dépenses publiques pour financer les nouvelles dépenses en faveur de la redistribution. Effectivement, l’intervention publique actuelle comprend de nombreux dispositifs inefficaces voire contreproductifs et producteurs d’inégalités. La littérature croissante sur l’État providence pour les riches examine ces questions, comme par exemple le récent livre de Christopher Faricy ou les travaux que nous menons actuellement avec Bruno Palier et Michael Zemmour [7] sur la stratégie française de politique de l’emploi par la baisse des coûts du travail.

Une grande réforme fiscale

Pour revenir aux propositions, elles comprennent des points qui peuvent paraître peu novateurs vus de France, comme le relèvement ou le maintien d’un salaire minimum à des niveaux élevés ou la création d’un produit d’épargne liquide à taux réduit ressemblant fortement à notre livret A. Hormis ces propositions, la plupart concerne le système d’impôts et transferts. Du point de vue des transferts de revenus, il est proposé de renforcer l’impôt sur le revenu, de le faire commencer dès les plus bas niveaux et de le rendre plus progressif. Du point de vue des allocations, outre l’augmentation des allocations retraite et chômage, l’auteur propose de réfléchir à l’introduction d’un revenu de base, une allocation versée à tous sans condition.

Toutefois, devant son coût très élevé, il propose de commencer par les enfants. Un tel revenu de base pour les enfants, versé aux parents, consisterait en une importante allocation familiale par enfant au montant indépendant du revenu ou du nombre de frères et sœurs. Il propose d’en fixer le montant au niveau du seuil de pauvreté, c’est à dire 0,3 fois 60% du revenu médian, ce qui correspondrait à un peu plus de 300 € mensuels en France [8]. Encore une fois, le changement ne serait pas extrême en France puisqu’une étude récente a montré que l’ensemble des prestations familiales françaises – en additionnant les allocations directes et les dispositifs sociaux-fiscaux - étaient très peu dépendant du niveau de revenu des parents (bien que bien plus dépendant de la composition familiale). Les couples avec au moins trois enfants et les familles monoparentales bénéficient de montants similaires par enfant quel que soit leur revenu. Toutefois, les couples avec un ou deux enfants ne bénéficient actuellement que d’environ la moitié de cette somme.

Concernant le capital, il propose une fiscalité progressive sur les successions et transmissions consolidée sur l’ensemble de la vie : le taux d’imposition sur un héritage dépendant des sommes héritées précédemment. Cela permettrait de taxer de la même manière deux personnes héritant des mêmes sommes, l’une en une fois et l’autre à travers plusieurs héritages plus petits. De manière plus originale, il propose une allocation en capital, sous la forme d’une dotation au passage à l’âge adulte. Cette proposition s’inscrit fondamentalement dans une philosophie de libre-choix et d’égalité des chances. Si elle est louable, elle est clairement très coûteuse et son risque principal est qu’elle remplacerait au lieu d’accompagner les mesures s’attaquant aux inégalités effectives. Or, arrivé à l’âge adulte, il risque d’exister une forte inégalité de capacité à réellement profiter de cette dotation.

Focalisation sur les transferts

De ce point de vue d’ailleurs, on peut reprocher à l’ensemble des propositions de se focaliser sur les transferts au détriment des autres formes d’intervention publique, alors que l’auteur note que même une réforme fiscale plus drastique que celle qu’il propose serait insuffisante ne serait-ce qu’à ramener le GINI britannique (mesure d’indice des inégalités de revenu) à son niveau de 1960. Une proposition très générale avance que la politique de régulation de la concurrence doit s’intéresser aussi aux questions distributives, mais sans préciser vers quel but ni avec quels moyens.

Pour ce qui est des investissements publics directs – ou du financement public direct de services qui pourraient être rendus par des entreprises ou associations dans le cadre d’un contrat de mission explicite – Anthony Atkinson cite un rapport sur l’investissement social sans rien en dire lui-même, hormis que c’est primordial. Pourtant, il avance également une proposition d’emploi garanti, forçant l’État à fournir un emploi public à tous les chômeurs (y compris des compléments publics d’emplois aux temps partiels subis). On peine à voir la cohérence entre cette proposition qui semble impliquer la création immédiate de nombreux emplois publics avec celle un peu plus loin de ne créer que petit à petit des emplois publics qui ne soient pas des petits boulots et remplissent de réelles missions d’intérêt public.

Ce livre fournit donc un excellent point d’entrée dans les questionnements économiques sur les inégalités, autant qu’un bon moyen de faire le point pour les lecteurs déjà familiers de cette littérature. La première partie livre un panorama essentiel sur l’évolution des inégalités et les difficultés pour les comprendre et les mesurer. Les deux parties suivantes permettent d’engager la réflexion sur les politiques à mettre en place. Indéniablement stimulantes, elles comportent toutefois des limites – concernant autant les réponses aux critiques que la mise en place des réformes – et invitent donc à poursuivre la réflexion pour les faire passer de grands principes à des réformes pratiques et applicables, dont on anticipe précisément les impacts en termes de modification des comportements des ménages.

[1] Chetty R., Hendren N., Kline P., Saez E., "Where is the land of Opportunity ? The Geography of Intergenerational Mobility in the United States". The Quarterly Journal of Economics 2014 Nov 1 ;129(4):1553-623.
[2] Jusot F., Tubeuf S., Trannoy A., "Les différences d’état de santé en France : inégalités des chances ou reflet des comportements à risques ?", Économie et statistique. 2012 (455-456):37-51.
[3] Boutchenik B., Coron C., Grobon S., Goffette C., Vallet L.A. Quantifier l’influence totale de la famille d’origine sur le devenir scolaire et professionnel des individus. Économie et statistique. 2015(477):5-23.
[4] Griliches, Zvi. « Economic data issues », Handbook of econometrics 3 (1986) : 1465-1514.
[5] Mesurée en proportion du revenu national par Thomas Piketty et Gabriel Zucman.
[6] Voir notamment la recension de Guillaume Allègre et Xavier Timbeau ou mon article sur le sujet : Carbonnier, C., 2015. L’impact des prix de l’immobilier sur les inégalités et leur mesure. Revue économique, 66(6), p. 1029-1044.
[7] Faricy Christopher, Welfare for the Wealthy : Parties, Social Spending, and Inequality in the United States. Cambridge University Press ; 2015.
[8] Le seuil de pauvreté est estimé à 60 % du revenu médian et le coefficient de 0,3 correspond, dans l’échelle d’équivalence standard, au coût supplémentaire pour un ménage de comporter un enfant de moins de 14 ans supplémentaire.

[retour ; haut de page]

Refus de savoir, désir d'agir

29 janvier 2016

Les débats autour des déclarations de Manuel Valls sur la culture de l’excuse m'ont rappelé un moment particulièrement douloureux de ma formation. Je sais bien que beaucoup a été dit et écrit dernièrement (et sûrement mieux que je ne pourrais le faire) sur la nécessité de toujours chercher à comprendre et sur la distinction entre comprendre et excuser (je ne mets pas de lien, c'est partout). Je voudrais revenir sur un point qui me semble essentiel dans le débat : la relation entre la construction de la connaissance académique - forcément généralisante - et les contraintes de l'application du droit - forcément individualisées. Mais avant cela, permettez-moi un petit détour par ma première grande déception intellectuelle, qui est doublement d'actualité en ce début d'année.

12 septembre 2001, première rencontre avec le refus de savoir

Tout jeune étudiant rentrant de mon service militaire pour reprendre mes études dans une grande école française, j'ai été évidemment frappé par les attentats du 11 septembre 2001, que j'ai suivi, choqué comme tous mes camarades, dans la salle commune de mon logement universitaire. Comment un tel acte est-il possible ? Pourquoi faire ça ? Qu'est-ce qui peut mener des hommes à un si long et compliqué stratagème pour tuer le plus spectaculairement possible autant de monde tout en s'auto-détruisant individuellement ? Et toutes autres nombreuses questions d'un post-adolescent en quête d'intellectualisme.

Heureusement, le lendemain, le mercredi 12 septembre[1], nous devions avoir notre premier cours de philosophie en amphi général. Or cet amphi, j'en attendais beaucoup, surtout en la circonstance. Tout le monde a son côté people et le fait que le professeur que nous allions avoir était célèbre attisait notre curiosité (sans parler du côté œdipien du fait que ma mère l'appréciait tout particulièrement). Mais surtout, cet homme était connu pour être un "philosophe de l'actualité", quelqu'un qui décortiquait les événements présents pour en éclairer notre compréhension. Pas de doute qu'il ferait son cours introductif sur les événements de la veille ; et effectivement, il le fit. Pas de doute non plus que ce serait très instructif ; et là je suis tombé de haut.

Il attaqua d'entrée sur le principe qu'il ressassa ensuite pendant tout le reste du cours. Ce qui s'était passé la veille était l'acte de barbares qui dépassait toute possibilité de compréhension. Il ne fallait donc surtout pas chercher à comprendre, mais chercher à combattre - au sens militaire du terme et non au sens intellectuel puisqu'il n'y avait rien à comprendre - aux quatre coins du monde. Tout le cours ne fut rempli que de cela : de l'appel à la vengeance et la dénonciation comme traîtrise de toute tentative de compréhension. De là date pour moi une aversion particulière pour cet homme, qui a depuis fait beaucoup polémique sur ses positions réactionnaires et vient d'être intronisé à l'Académie Française.

Confusion des missions

Pour revenir à la question qui me préoccupe ici, il me semble qu'une raison principale de la peur du savoir académique (en sciences sociales, mais pas seulement) est la confusion entre les missions et les pratiques judiciaires et académiques. Pourtant, les fonctions du juge et du chercheur divergent fondamentalement. Le second cherche à comprendre des généralités, à mettre au jour des mécanismes, des tendances. Éventuellement, il peut les expliquer au juge pour aider celui-ci dans ses missions particulières, mais seul le juge décide si l'élément d'explication (car il s'agit le plus souvent d'éléments d'explication et non d'explication intégrale) constitue ou non une circonstance atténuante.

Il serait obscurantiste de contraindre le chercheur dans sa quête d'éléments d'explication de peur que le juge considère éventuellement ces éléments comme des excuses. Si on souhaite influer dans la manière de raisonner des juges, il convient de le faire par la modification du code pénal - voire de la constitution - plutôt que directement en modifiant les résultats de la recherche scientifique. Plutôt que de nier le droit à la compréhension des mécanismes sociaux, il est probablement moins néfaste et plus transparent de tenter de légiférer sur ce qui doit ou non être considéré judiciairement comme une circonstance atténuante.

On trouve des illustrations de ces réticences envers la recherche du fait de la peur de ne pas maîtriser ses conséquences judiciaires y compris hors des sciences sociales, et en particulier dans la médecine. C'est le cas par exemple de la recherche sur le syndrome d'alcoolisation fœtale, fort développée outre-Atlantique et qui peine à trouver ses financements en France. Certes, les guerres budgétaires entre ministères n'y sont pas étrangères (les coûts d'éventuelles nouvelles prises en charge retomberaient sur les affaires sociales quand les économies seraient pour l'éducation et la justice, mais les décisions de financement de recherche incombent en l'occurrence principalement aux affaires sociales). Mais surtout, une réticence toute particulière à ces études provient de la peur que les résultats puissent être interprétés pour être utilisés judiciairement comme arguments en faveur de l'absence de responsabilité de prévenus. Or, on met un point d'honneur à afficher qu'on se refuse à juger des irresponsables, et plutôt que d'afficher qu'on souhaite pondérer voire atténuer ce principe (ou simplement qu'on pense qu'il ne s'applique pas en l'occurrence), on préfère fermer les yeux sur les études médicales, et les limiter si l'on peut.

Problème spécifique aux sciences sociales

En plus de cette peur, les sciences sociales sont sujettes à un problème supplémentaire qui rend encore plus difficile leur interaction avec le judiciaire. En effet, les grands résultats de sciences sociales sont souvent des effets parmi d'autres, des tendances, bref des éléments de compréhension générale et non des compréhensions totales particulières. Quand je mets en évidence l'impact du quotient conjugal sur la participation des femmes mariées au marché du travail, c'est bien un résultat robuste et causal que j'obtiens. Pour autant, cela ne veut pas dire que le quotient conjugal explique la totalité des différences de taux de participation des femmes entre pays, loin de là, il existe de nombreux autres déterminants sociaux, culturels, liés au marché du travail lui-même ou à d'autres politiques publiques. Surtout, même si on pouvait lister tous les critères d'influence, il resterait des inobservables individuels : on peut estimer les influences moyennes de certains paramètres sur les décisions de groupes d'individus mais cela ne permet aucunement de déduire avec certitude que telle femme particulière travaille ou non du fait de telle cause particulière.

Or le juge ne s'intéresse pas aux tendances générales, aux impacts causaux moyens de phénomènes sociaux sur les individus. Il s'intéresse à un cas précis, unique. Pour autant, les principes de notre justice lui demandent de prendre en compte les éléments de contexte, c'est à dire de se faire une idée sur la réalisation effective sur le sujet qu'il doit juger de ces influences mises en évidence par les sciences sociales. C'est une mission extrêmement difficile, et il est probable qu'il se trompe souvent, voire qu'il y renonce parfois. Mais quoi qu'il en soit, cette application à un cas individuel reste le problème du juge et non du chercheur. Ce dernier peut évidemment l'aider en lui expliquant au mieux les éléments de compréhension que la littérature scientifique a mis au jour. Il le fera d'ailleurs d'autant mieux qu'il restera dans son rôle et surtout qu'il ne sur-interprétera pas ses résultats. Mais le chercheur ne doit en aucun cas internaliser les problèmes d'applications pratiques en limitant sa recherche d'éléments de compréhension.

Refuser toute critique du comportement de la victime

Plus particulièrement concernant les phénomènes de crimes contre la société, et en particulier les attentats massifs, les résultats des analyses de sciences sociales sont parfois mal reçus car ils critiquent la société elle-même, c'est à dire la victime. Beaucoup d'analyses montrent en effet comment notre organisation renforce la probabilité de passage à l'acte. Ces analyses sont mal perçues pour deux raisons : la crainte de l'excuse de l'agresseur et le refus de remise en cause. Premièrement, elles sont considérées comme dédouanant l'agresseur en présentant des critiques du comportement de l'agressé (ou en proposant des comportements de protection plus efficaces, ce qui d'une certaine manière peut être perçu comme une critique). Or, critiquer le comportement de la victime ne revient absolument pas à dire que la victime est co-responsable. Quand bien même le serait-elle, cela ne signifierait pas qu'il y ait circonstance atténuante pour l'agresseur, car la responsabilité ne diminue pas forcément quand on la partage : la responsabilité c'est comme l'amour pour les enfants, ça se partage sans nécessairement que les parts soient plus petites que le tout.

Prenons des exemples simples : si je pique régulièrement mon voisin de comptoir avec une petite épingle à nourrice et qu'il me retourne une droite qui me casse le nez, le juge pourra (je ne sais pas s'il le fera, je ne suis pas assez au fait du code pénal) donner des circonstances atténuantes à mon agresseur. En revanche, si je laisse ma porte ouverte et qu'on me cambriole, le fait que ma porte n'était pas fermée n'exonère en rien le cambrioleur. Pour autant, on pourra me dire que j'ai été bien con de la laisser ouverte (mon assureur en particulier me le fera bien sentir). Ensuite, on peut chercher à construire un monde où je n'aurai plus besoin de fermer ma porte. En attendant qu'il se réalise - même s'il n'est pas forcément si utopique que certains le pensent - je continuerai à donner un tour de clef et ce n'est en rien excuser les cambrioleurs que de recommander à tous d'en faire autant.

Le problème avec la responsabilité sociale, c'est que c'est encore bien plus complexe de démêler ce qui est de la bonne prévention sans partage de responsabilité, du partage de responsabilité avec parts complètes de responsabilité ou du partage de responsabilité créant circonstance atténuante (pour toutes les raisons présentées plus haut). Mais quoi qu'il en soit, il est primordial de continuer à chercher des éléments de compréhension, ne serait-ce que pour tenter d'apporter les réponses les plus efficaces. Ce n'est pas toujours en frappant plus fort qu'on règle les problèmes. Il convient en fait de savoir ce que l'on cherche : à se venger (quitte quelques fois à souffrir plus soi-même pour pouvoir accomplir sa vengeance) ou à se protéger (quitte dans certains cas à ne pas accomplir pleinement sa vengeance).

Chercher à comprendre, toujours

Enfin, un dernier point, est celui du rassemblement autour d'une cause. Une maxime célèbre sur l'armée est que réfléchir c'est déjà désobéir. Si on veut amener un peuple à la guerre, il importe de lui faire haïr son adversaire et le déshumaniser au maximum. Si le combattant voit son ennemi comme un homme, il sera un peu plus réticent à lui tirer dessus. On retrouve cela dans nombre de romans sur la guerre, en particulier la première guerre mondiale, de Giono à Remarque, en passant par Céline. Mais historiquement, la guerre n'a pas toujours réglé les problèmes, et cette première guerre mondiale en est un bon exemple.

Tout ça pour dire qu'il faut continuer à chercher à comprendre, tout le temps, toujours, et explorer sans cesse plus avant les éléments de compréhension. D'abord parce que l'homme est un animal qui a cela de beau de toujours chercher à comprendre, même quand c'est inutile. Ensuite parce que souvent, en fait, cela s'avère utile. Il faut surtout éviter de déshumaniser l'ennemi et de penser que toute action qu'on ne comprend pas instinctivement est une pure idiotie venue de nulle part et pratiquée sans aucune influence extérieure. Sans aller jusqu'à penser que toutes les actions sont toujours rationnelles, il est important de chercher des éléments de compréhension des mécanismes qui les ont amenées à être exécutées.

[1] En fait, je ne suis plus vraiment sûr que c'était le lendemain, c'est ce qui me reste en mémoire mais peut-être cette si courte succession temporelle est-elle une reconstitution mythique des événements que je me suis forgée depuis. Toujours est-il que ce premier cours a eu lieu très peu de temps après les attentats, et qu'aussi bien mes attentes que le contenu du cours étaient tels que décrits.

[retour ; haut de page]

La crise des subprimes 101

12 janvier 2016

Après Margin call il y a quelques années, l'occasion nous est donné de voir un nouveau très bon film sur le monde de la finance et la crise des subprimes, à savoir The big short. Si le premier était un huis-clos sur les us et coutumes d'une banque en période de crise, le second se veut beaucoup plus général et didactique. Il est tiré du livre du même nom qui est une enquête sur des traders qui ont su anticiper l’éclatement de la bulle immobilière. Les styles sont également totalement opposés : lent et intimiste pour le premier, avec un accent particulier sur les dilemmes (a)moraux des personnages ; rapide et show off pour le second, avec des scènes de fiction entrecoupées de cours de mise à niveau technique (même si certaines ficelles peuvent paraître trop grosse au début, on finit par se laisser entraîner dans le rythme). Pour ceux qui ne veulent pas aller voir ce film mais veulent mieux comprendre la crise comme pour ceux qui en reviennent et veulent quelques clarifications, je propose une petite histoire rapide de la crise des subprimes. Cela peut aussi tenter ceux qui comptent aller voir le film et veulent être au point pour être sûr de bien suivre. Que ceux-ci se rassurent, il n'y a rien à spoiler dans ce film. The big short, c'est comme Titanic, tout le monde connait la fin avant d’aller le voir : le Special Purpose Vehicle coule à la fin.

1. Que sont ces titres financiers dont il est question ?

Reprenons au début : les crédits immobiliers, c'est pas l'fun : peu de risque donc peu de profits. Les gens paient leur crédit. Au pire (mais vraiment rarement) certains finissent par ne plus payer : on leur reprend leur maison qu'on vend à un prix qui couvre les frais plus le crédit (et vraiment au pire du pire il reste quelques frais mais c'est vraiment peanuts). Le boulot est simple : on trouve un gus qui veut une maison, on lui prête un demi-million, il rembourse un demi-million plus de menus intérêts, ce n’est pas folichon et surtout il faut beaucoup de fonds pour obtenir peu de bénéfices. En général, quand on ne peut pas faire beaucoup de marge mais que la marge est sûre, le but est de faire beaucoup de volume. Pour faire beaucoup de volume avec des crédits immobiliers, il faut avoir énormément de fonds à placer. C'est là qu'intervient une première innovation : la titrisation.

Titrisation du crédit immobilier, le MBS

Petit aparté : on va avoir un problème de vocabulaire ici alors pour ne pas s’emmêler disons qu’on « place » un crédit quand on trouve un gary à qui prêter de l’oseille pour qu’il s’achète une turne. Et disons qu’on « vend » un crédit quand on trouve un gary prêt à investir pour acheter le titre de dette du gary emprunteur. De fait, celui à qui on a « vendu » le crédit est le réel préteur des sous qui ont permis de financer la piaule de celui auprès de qui on a « placé » le crédit. Nous, on n'est qu’intermédiaires et on touche juste une commission. Le mécanisme général est qu'on place plein de crédits qu'on revend aussitôt, ce qui permet d’en refourguer d’autres parce qu'on a toujours des fonds à prêter (issus de la vente des premiers crédits).

Pour pouvoir écouler tous les crédits qu'on a placés, il faut un gros porte-monnaie : les marchés financiers. Mais il faut dans ce cas markéter le produit pour qu’il convienne, et on en profite pour mutualiser le risque de défaut. Un crédit, c’est pas sexy, on l'a déjà dit, et surtout ce n'est pas formaté pour les marchés financiers. C’est peu risqué, mais quand même un petit peu. Alors au lieu de vendre à un gus un crédit immobilier avec une chance sur mille de perdre un peu de sous en frais de liquidation, de saisie, etc… on lui vend un dix-millième de dix mille crédits immobiliers. Ces produits financiers qu'on vend sont les MBS pour Mortgage Based Security, soit littéralement « titre adossé à une hypothèque ». Avec la loi des grands nombre, on dit que c’est sûr (10 des dix milles prêts vont perdre un peu d’argent, qui sera couvert par les 9 990 qui auront tous payé). Et donc le rendement est assuré.

Là, on fait notre première erreur, on oublie la corrélation : la loi des grands nombres 1] ne peut être appliquée que si les risques sont indépendants les uns des autres, sinon on ne mutualise que tchi. On comprend bien que si chacun risque de ne plus pouvoir payer son crédit de manière tout à fait indépendante (la maladie, la mauvaise fortune, le chômage, etc. frappent aveuglément et indépendamment les emprunteurs), le calcul de la mutualisation marchera : tous les ans, une petite proportion d'emprunteurs fera défaut. En revanche, si les risques sont corrélés (effondrement du marché immobilier, augmentation du taux moyen de chômage, épidémie, etc.) avec une très forte probabilité personne ne fera défaut et avec une très faible probabilité tout le monde fera défaut. Le risque n'a pas été mutualisé du tout, il est toujours aussi présent. Pire, comme on le verra plus loin, la partie corrélée du risque peut même être augmentée par le phénomène de croire (à tort) que le risque a disparu.

Des MBS aux CDO

Ensuite, pour fluidifier encore plus le marché, on peut créer des sociétés ad hoc (potentiellement filiales à 100% de grandes banques qui peuvent du coup apporter beaucoup de fonds, cela s’appelle un SPV pour special purpose vehicle) qui achètent les MBS et qui vendent sur les marchés financiers des obligations (des titres de dette sur elles-mêmes, adossés cette fois-ci sur les MBS). Cela permet de rassurer encore plus les investisseurs qui achètent une obligation à une filiale d’une banque et non directement les MBS. Un individu peu crédible va voir une banque et lui demande de l’argent via un crédit bancaire, une entreprise très crédible va voir les marchés financiers et leur demande directement de l’argent contre une promesse de remboursement : on appelle cette promesse de remboursement une obligation. Les titres de dette de ces filiales ad hoc s’appellent des CDO (collateralized debt obligation) car il s'agit d'obligations émises par une société qui compte les rembourser grâce à l’argent reçu des MBS (et qui gage directement la dette sur les MBS).

Ensuite, on peut broder. On vend les premières mensualités du remboursement de crédit dans un produit (vraiment ultra ultra sûr – AAA – mais qui du coup ne paie quasiment zéro intérêt : c’est l’assurance de placer son argent à zéro risque) et on vend les derniers mois dans un autre (un peu plus risqué, genre A ou BBB). On peut aussi varier les types de crédits : les crédits à des fonctionnaires qui achètent un appart' intra-muros (faible risque de défaut et très faible risque que la valeur de l’hypothèque ne baisse) sont AAA, les crédits à un commerçant de Saint-Go pour une maison à Payssous sont A ou BBB, voire B pour les dernières mensualités.

Se surajoute à ça le fait que des gens peuvent prendre des paris sur le résultat d’un CDO. Cela ne fait que se surajouter : c’est ce qu’on appelle les CDO synthétiques. Dans le film, c'est Richard Thaler qui explique le principe général de ces produits qui peuvent générer d'importants effets de levier. Cela démultiplie l'argent en jeu car on n'a plus besoin de construire des maisons et de faire des crédits immobiliers pour placer l'argent, on fait des simplement des paris. Toutefois, si c'est un anti-vecteur de stabilité globale des marchés, qui rend encore plus explosif l'effet d'un crash, ce n'est pas une cause de la bulle et de son explosion mais une conséquence amplificatrice.

2. Quel est le contexte qui nous amène à la crise ?

Ce système existait depuis longtemps, mais il a pris un nouveau tournant après la crise de 2000 liée à l'éclatement de la bulle internet. Deux phénomènes se sont jumelés. En général, quand les marchés financiers déraillent, les gens cherchent à placer leur argent dans du sûr. Ils reprennent leurs billes des entreprises « risquées » et placent dans les bons du trésor, dans l’or et dans l’immobilier. Par ailleurs, pour limiter les difficultés des entreprises à se financer malgré ce reflux de placements, les banques centrales essaient de balancer suffisamment de liquidités dans le système (à travers des taux d’intérêts bas, voir en injectant directement de l'argent dans l'économie, par hélicoptère) si nécessaire. En l’occurrence, la Fed (la banque centrale américaine) a inondé le marché interbancaire avec des taux d’intérêts directeurs très proches de zéro. Du coup plein de flouze à placer, des taux d’intérêts au plancher et un attrait particulier pour les placements immobiliers… beau temps pour les MBS et les CDO.

Des ‘primes’ aux ‘subprimes’

On pouvait « vendre » plein crédits, il a donc fallu trouver à en « placer » suffisamment (produire des titres) pour pouvoir les vendre. Alors on est descendu. Les filiales ad hoc demandaient plus de MBS pour fourguer plus de CDO, du coup les banques locales essayaient d’augmenter leur nombre de crédits immobiliers pour pouvoir vendre plus de MBS. On a demandé aux courtiers en crédit de ne pas être trop regardants. Les fonctionnaires et leurs appartements parisiens sont ‘prime’. Les commerçants de Saint-Go et leur maison à Payssous sont un légèrement ‘subprime’. Mais comme on a besoin de plus de production de MBS, on prête à l’immigré en intérim et à la stripteaseuse pour acheter des maisons dans des banlieues pavillonnaires hyper loin de tout au fin fond de la Floride (ou du nord de l'Etat de New-York…) : c’est carrément ‘subsubprime’. C’est là que dans le film entrent en scène les deux crétins floridiens et le fameux moment où Mark Baum demande à parler en privé à ses collaborateurs :

« - Mais pourquoi ils avouent comme ça ?

- Ils n’avouent pas, ils se vantent ! »

Il faut placer du crédit et de toutes façons pas de risques, l’immobilier ça paye toujours. Tout le monde est d’accord, les promoteurs immobilier, les agents immobilier, les gens qui peuvent s’acheter des maisons… Au pire, quand t’as ta maison, t’en achètes une autre pour louer. Tu rembourses avec le loyer, pas besoin d’apport et tu auras ta retraite dans la pierre quand tu pourras plus faire stripteaseuse. On prête à tout le monde, n’importe comment, pour n’importe quoi, de toute façon, l’immobilier, c’est sûr !

La stripteaseuse emprunte parce qu’elle peut, parce qu’on lui dit que ses cinq maisons vaudront toujours plus que les crédits et parce qu’on lui dit qu'elle trouvera toujours des locataires (ça n’existe pas de ne pas trouver de locataires) pour payer les loyers qui paient les mensualités. Les courtiers placent parce qu’on leur demande de placer. Les banques locales placent et revendent les MBS parce que l’immobilier, c’est sûr ! Les banques nationales via les SPV achètent les MBS et vendent les CDO parce que l’immobilier, c’est sûr ! Les investisseurs achètent les CDO (et les CDO synthétiques) parce que l’immobilier, c’est sûr ! Et puis tout se passe sans que personne n’aille voir dans les notices présentant quels crédits sont dans les MBS dans les CDO. Quant à savoir la valeur des maisons sur lesquelles sont adossées les crédits, c’est encore une autre question.

D’une bulle financière à une bulle immobilière

Le problème est qu’avec cet emballement, on a construit plus que les gens peuvent se payer et habiter, et on a prêté des montant pour des maisons surévaluées. Un courtier vient et te dit : « là y'a une maison qui coûte 500 000 $, je te prête 500 000 $, tu me rembourses avec les loyers et on finit tous riches ». Le courtier n'est pas regardant sur ta situation, et tu n'es pas très regardant sur la maison et son prix. Et globalement, cela fait monter la demande de maisons, dont l'offre réagit lentement, donc cela fait monter les prix. Mais ce n'est pas pour autant que cela reflète le réel besoin de logements ou la réelle capacité des locataires à payer des loyers. Il en résulte que les projets immobiliers finissent par ne plus trouver de locataires, ce qui amène certains emprunteurs à ne plus pouvoir rembourser.

De plus, pour mieux placer les crédits, on a fait comme tout bon commercial : des prix d’appels. De même que Bouygues, Free, Numéricable-SFR et Orange vous disent pour votre internet « les 6 premiers mois à 15,99 € et ensuite à 34,99 € », on a prêté à taux variable avec un taux d'appel à disons 3 % les deux premières années puis le taux interbancaire plus 3 % après ça (ces chiffres sont purement fictifs mais l'idée est là). 3% au-dessus du taux interbancaire, c’est énorme comme spread pour un crédit immobilier, mais on commençait à prêter à des gens non solvables qui n’avaient pas accès aux prêts normaux, donc quand on a leur a dit « tu t’achètes une maison gratos, plus une pour louer et je te prête le tout pour 3 % les deux premières années puis les taux interbancaire plus 3 % après ça », ils ont dit banco. Le problème est que la surchauffe a commencé à se faire sentir. Le banquier central a alors dit, « oh, les gars, on se calme, je remonte le taux directeur de 1 % mi 2004 à 5,25 % mi 2006 (à coup de 0,25 % tous les mois ou deux) ». Cela a conduit les taux interbancaires de 1,3 % à 5,8 % sur la même période. Là-dessus, l'emprunteur qui arrive à la fin de ses deux années à 3 % se retrouve mi 2006 à devoir rembourser à 8,8 %. L’augmentation est faramineuse, pour un prêt de 500 000 $, ça fait passer les intérêts mensuels de 1250 $ à 3666 $ et il ne peut plus rembourser (surtout s’il n’a pas trouvé de locataire).

Et là, c’est l’emballement, et l’éclatement de la bulle immobilière qui fait éclater la bulle financière qui avait généré la bulle immobilière. Les défauts se multiplient, et donc se multiplient aussi les saisies, et les ventes. Or, tout le monde a déjà sa maison (dont le prix est surévalué) alors qu’on se met à vendre à tire-larigot. Les prix immobiliers s’effondrent donc rapidement et les reventes ne permettent pas de rembourser les crédits. Non seulement le taux de défaut est plus important que prévu, mais les pertes par défaut sont aussi plus hautes que prévues parce qu’on ne peut plus rembourser les crédits par les ventes des maisons. Tout se casse la gueule car le risque corrélé a connu sa mauvaise réalisation.

A tout ça se surajoute le fait que des gens solvables se mettent à faire volontairement défaut : un gonze a acheté une maison 500 000 $, emprunté 500 000 $, habité la maison et loué icelle, remboursé 50 000 $, réemprunté les 50 000 $ sur l’hypothèque de la maison pour s’acheter une voiture plus 50 000 $ de plus pour des vacances à Ibiza parce que sa maison avait pris 10 % et qu’il pouvait emprunter 50 000 $ de plus sur son hypothèque qui valait 550 000 $ après la hausse de valeur de marché de sa maison. Et là, bam, c’est la crise ! Sa maison ne vaut plus que 350 000 $. Non seulement son banquier lui demande de rembourser 200 000 $ (mais bon, il pourrait essayer de négocier) mais surtout il lit le contrat qu’il n’avait jamais lu et il s’aperçoit qu’effectivement on peut lui demander le remboursement immédiat de tout ce qui dépasse la valeur de sa maison (ce qui ne devait jamais arriver parce que l’immobilier, c’est sûr !) mais surtout il voit qu’il peut écrire une lettre à son banquier lui disant que la maison appartient désormais à la banque et qu’il ne lui doit plus rien. En attendant qu’on vienne l’expulser pour ne pas arriver ensuite à vendre sa maison, il vit là gratos (ou il continue à louer et à encaisser les loyers sans payer ses mensualités), puis il ira se reloger ailleurs (ou son locataire ira essayer de se reloger ailleurs s’il le peut), c’est tout bénéf en attendant.

Ce qui ne veut pas dire que des braves gens ne sont pas lésés, au contraire. Le locataire du mec précédent est mis à la rue, et pour peu qu’il bosse dans le BTP qui licencie à tout va, ce n’est pas demain la veille qu’il retrouvera une maison. Les immigrés qui croyaient avoir trouvé le rêve américain sont aussi expulsés de là où ils croyaient être propriétaires, et vu que c’est la crise, ils vont avoir du mal à retrouver un boulot et un logement. Des tas de gens sont à la rue pendant que des milliers et des milliers de maisons sont abandonnées, invendues, inhabitées.

A l’été 2006, j’avais fait un petit road trip par là-bas (Upstate NY, PA, OH, WV, VA, KY, TN, AR, TX) et avait été choqué par le nombre de banlieues pavillonnaires qui semblaient abandonnées. Plus d’une maison sur deux n’avait plus d’occupant, et voyait son panneau « for sale » planté dans le jardin se délabrer avec le temps. Ce n’est que bien plus tard que j’ai compris ce que j’avais vu.

3. Venons-en au big shot, la grosse vente à découvert

Le film retrace l’histoire à cette époque de quatre personnes ou groupes de personnes : un gérant de fonds de placement Californien (Michael Burry - alias Christian Bale - un borgne en bermuda et tongs atteint du syndrome d’Asperger) ; un trader de la Deutsche Bank (Jared Vennett - alias Ryan Gosling - dans le film, Greg Lippman dans la réalité) ; une équipe de placement liée à Morgan Stanley (dirigée par Mark Baum - alias Steve Carell - dans le film, Steve Eisman dans la réalité) et deux boursicoteur amateurs aidés par un trader repenti (Ben Rickert - Brad Pitt - dans le film, Ben Hockett dans la réalité).

Le borgne en bermuda

Le borgne, il est Aspeger, donc il n’agit pas comme les autres. Et en particulier, il lit les notices des CDO qu’il achète (un ouf, le type, il lit !). En 2005, il se dit : « wow c’t’affaire ! ces osties d’criss de CDO sont pas solides pantoute ! Tout ça va s’écrouler en tabarouette ! ». Rapport à tout ce qui est écrit plus haut, et qu’il avait donc compris. Lui, il est Asperger (je sais, je me répète mais c’est malgré tout assez central, autant pour sa manière de penser le trading que pour ses motivations morales), donc le truc que tout le monde prend pour évident « l’immobilier, c’est sûr ! », il ne peut pas le prendre pour argent comptant, sans vérifier. Et quand il vérifie, il se dit que ça va chier (d’autant qu’il voit bien que les taux directeurs remontent et que les crédits sont en masse à taux variables avec période de promo - ce qu'il répète à plusieurs reprise dans le film). Il se dit alors qu’il faut parier contre. Pas méchamment parce qu’il souhaite que tout s’écroule. Pas par fraude pour s’enrichir pendant que tout s’écroule. Simplement parce que son métier c’est de placer, que quand ça va s’écrouler il vaut mieux placer contre que pour (les notions de bien et de mal ne le touchent pas trop, il a juste raison et les autres ont tort).

Mais là, comment faire ? La base du « parier contre », c’est la vente à découvert : je te vends aujourd’hui à prix fort un titre que je n’ai pas, et je te le livrerai effectivement le jour où il aura baissé. Tel que fait par certains sites en ligne de vente de primeurs du bordelais, c’est illégal. Mais ce que je peux faire, c’est te vendre un titre qui paie tout comme un autre. Par exemple, je veux shorter Airbus : je te vends un contrat qui dit que chaque fois qu’Airbus donnera 1 € de dividende, je te filerai 1 €. Si t’es d’accord, il n’y a rien d’illégal. Le problème est que si je suis monsieur toulemonde, tu te diras que je peux faire faillite facilement et que ça ne vaut pas le coup, et tu ne m’achèteras pas ce titre. En revanche, si je suis un trader d’une grande banque (qui ne fera sûrement pas faillite d’autant qu’au pire l’Etat la renflouerait), tu seras prêt à m’acheter ce contrat quasi au prix de l’action airbus (un peu moins cher quand même car : i. le risque de faillite n’est pas totalement nul et ii. ce contrat ne donne pas de droit de vote au CA d’Airbus). Bon, là, vu que tout le monde croit dur comme faire dans les CDO et qu’un fond de placement californien, c’est très loin du risque nul de défaut, ce n’est pas jouable comme tactique.

Du coup, le borgne en bermuda emploie une deuxième tactique. Il va voir une banque et lui demande de l’assurer contre le risque de perte sur les CDO. En gros, si tel CDO rapporte moins que prévu, la banque lui rembourse le dommage, c'est-à-dire la différence. En échange, comme tout contrat d’assurance, il doit payer régulièrement une prime d’assurance. Il doit trouver régulièrement de l’argent pour payer la banque, à défaut de quoi son contrat d’assurance est caduc, ce qui explique que si ses clients se retiraient (ce qu’ils menacent de faire quand ils apprennent qu’il a parié tout leur fric sur une chute de l’immobilier, alors que tout le monde le sait, l’immobilier, c’est sûr !), il ne pourrait plus payer le contrat d’assurance et perdrait tout. Ce type de contrat s’appelle un CDS pour « Credit Default Swap ». Une différence notable avec un contrat d’assurance classique, est qu’il n’a pas besoin de subir lui-même le dommage (il n’a pas à posséder des CDO), il lui suffit de prendre un contrat sur le défaut des CDO, et il peut prendre autant de contrat qu’il le souhaite sur le même CDO.

Prenons un exemple simple de chiffres fictifs pour illustrer cela : un CDO doit rapporter un million de dollars par an pendant cinq ans, et supposons que le risque de faillite du SPV est de un pour mille par an (et pour simplifier les calculs supposons que le taux d’intérêt est de 0 % comme ça on n’a pas à s’embêter avec des questions d’actualisation). Il prend le contrat sur cinq ans. Au départ il paie pour la première année, 1 pour mille que ça plante (et qu’il perde 1 M$) ça coûte 1000 $ de prime de risque plus des frais de dossier. La seconde année, même montant de 1000 $ plus les frais de dossier, 1000 $ la troisième, 1000 $ la quatrième et 1000 $ la dernière. La banque veut se faire une bonne marge donc elle dit : « ok, je t’assure à 10 000 $ la première année, 10 000 $ la seconde, etc. » Ce sont certes des énormes frais de dossiers, d’où le fait que les banquiers se fendent la poire, d’autant que l’immobilier, c’est sûr ! Lui se dit : « les CDO c’est de la merde, donc banco, enwoye pour 1,5 milliards la première année », soit 150 000 CDS sur le CDO susmentionné. La banque vient de signer qu’elle prend illico 1,5 Mds$, et encore 1,5 Mds$ l’année suivante si le fonds du borgne n’a pas coulé d’ici là (ce qui est peu probable), et encore 1,5 Mds$ l’année suivante, etc.

Une conséquence est que la seconde année, le borgne doit vendre tout ce qu’il lui reste en autres types de produits pour payer les 1,5 Mds$ de la seconde échéance (et les CDO auraient tenu un an de plus, il aurait coulé, n’aurait pas pu payer les 1,5 Mds$ de l’année suivante et le contrat d’assurance aurait été rompu). Mais les CDO sont sub-claquants et s’ils meurent définitivement, la banque lui doit 1 M$ x 150 000 CDS soit 150 Mds$ pour la seconde année, autant la troisième (après qu’il aura dûment payé sa cotisation à 1,5 Mds$ grâce aux 150 Mds$ de l’année précédente, 150 Mds$ la quatrième année et autant la cinquième). La banque comprends alors que le risque de crash des CDO est très important, et elle dit : « bon ok, négocions le prix pour que je te rachète tes contrats d’assurance ». Tant qu’elle espérait que les assurés coulent avant les CDO, elle se disait « on continue » (d’où les engueulades sur le fait que les prix sont mal fixés, que les défauts explosent mais que les prix des CDO restent si hauts et des CDS si bas, d’autant que les agences de notation, dont les principaux clients sont les banques vendant les CDO, continuent de les noter AAA). Mais maintenant que c’est très probable que les CDO vont couler, il faut essayer de se sauver un peu.

La banque le rappelle donc et lui propose : « écoute gentil petit borgne en bermuda, pitêt en fait que les CDO vont pas couler et que tu ne toucheras rien. Ou pitêt que moi banque qui t’assure je vais couler et du coup tu ne toucheras rien non plus. Donc je te propose que je te paie 15 Mds$ là tout de suite pour te racheter tous tes CDS et on n’en parle plus. » Et lui, qui a quand même le couteau sous la gorge avec tous ses clients qui lui font des procès pour récupérer leur fric, il dit « OK », il récupère 15 Mds$ après avoir placé en tout 3 Mds$, il paie 500% de rentabilité à ses clients et ferme son fonds (après avoir touché une bonne com’).

Mark Baum

Mark Baum, lui, n’a pas le couteau sous la gorge (ou moins bien aiguisé) donc il n’est pas obligé d’accepter. Et un paiement cash de 15 Mds$ pour éviter quatre paiements de 150 Mds$, il trouve que les banques s’en tirent vraiment trop à bon compte. Donc il dit « non merci pour votre proposition de rachat, je préfère garder mon assurance et la faire valoir quand il sera temps ». Si on le voit comme un mec droit à principes, il veut faire payer les banques plus de 15 Mds$ quitte à ce qu’elles crèvent et qu’il n’ait rien. Si on le voit comme un peu plus cynique, on peut dire qu’il fait monter les enchères. La réalité est probablement entre les deux et il finit par céder à un prix clairement bien plus élevé que les 15 Mds$ du borgne.

Les deux blaireaux du MidWest

Les deux gus, ce sont des spéculateurs amateurs, qui ont utilisé une technique liée aux biais cognitifs mis au jour par Kahneman et Tversky. Pour résumer, les gens ont une aversion aux pertes bien supérieure à leur aversion au risque en général. Pour comprendre les implications sur la techniques des blaireaux du MidWest, imaginons un titre pourri qui devait payer 10 000 $ mais a 90 % de chances de faire défaut. En fait, ce titre devrait valoir 1000 $ moins une prime de risque (disons 200 $). Mais les fonds ou banques qui le possèdent n’aiment pas du tout avoir un titre aussi junk à leur bilan, cela fait sale. Ils sont donc prêts à s’en débarrasser pour rien juste pour assainir leur bilan (ils réalisent tout de suite la perte et retrouvent un bilan joli qui permet d’attirer les investisseurs même s’ils ont essuyé une perte l’année précédente). Ils liquident alors ces titre, disons à 100 $ chaque (au lieu de 800 $). Les deux amateurs recherchent ce genre de titres tous pourris. Ils scrutent des titres devant payer 10 000 $ et coutant 100 $ en se disant que si c’est aussi clair que ce sont des junk bonds, leur valeur doit probablement être sous-évaluée et que la probabilité de défaut est sûrement bien inférieure aux 99 % que leur prix semblerait indiquer (en l’occurrence 90 %). Ils achètent donc ces titres hyper pas cher. Neuf fois sur dix ils pomment 100 $, une fois sur dix ils gagnent 10 000 $. En moyenne, ils sont hyper gagnants. C’est ça qui leur permet de passer en quelques années de 100 000 $ de mise initiale à 30 M$.

De là, ils essaient de passer pro et de monter un fonds, de se trouver une banque ou un gros client pour se lancer à grande échelle. Ils voudraient aussi pouvoir trader des produits dérivés et pas juste des actions. Mais pour ça, il faut être membre de l’international swap and derivative association (ISDA) qui est la principale association qui labélise les contrats de produits dérivés. Cela n’est possible que si on est backé par une banque, mais celles-ci n’accèptent pas pour un fonds aussi ridicule que 30 M$. Pourquoi leur copain les aide ? C’est sûrement un des points les obscurs du film. Parce que c’est leur voisin et qu’il a l’air de bien les aimer, qu’ils font un truc qui va dans le sens de montrer que le monde qu’il a quitté est rempli de cons ? Quoi qu’il en soit, j’aime beaucoup la scène où il leur demande d’arrêter de danser en sortant du congrès des cons titrisants. Les jeunes sentent qu’ils ont fait une super affaire et qu’ils vont s’enrichir, il leur dit de rester un peu dignes, car s’ils deviennent effectivement riches, ça voudra dire que des tas de ménages auront perdu leur emploi et leur maison.

Les banques ont-elles fait exprès de berner leurs clients ?

Dans le film, les banques sont tellement sûres que l’immobilier ne s’effondrera jamais qu’elles ont juste vu un fou venir leur filer 1,5 Mds$ gratos (et peut-être plus s’il survit). C’est d’ailleurs les questions que se posent Mark Baum, et la raison pour laquelle il a du mal à y croire au début. Mais il va sur le terrain regarder les maisons. Puis il va au grand congrès annuel de la titrisation où les mecs sont vraiment très premier degré. Le tête-à-tête avec le fabriquant de CDO dans le resto pendant le congrès est à ce propos assez extraordinaire (avec la conclusion : et vous pesez combien ? Moi je pèse tant de milliards de dollars). La thèse est ainsi que les banques n’ont pas fondamentalement fais exprès de construire des titres pourris, elles ont fermé les yeux en pensant vraiment que de toutes façons les crédits immobilier se remboursent toujours, donc même si c’est pourris, ça passera !

Cette question du niveau de préméditation des banques a été un des points important après la crise : les banques se sont-elles plantées par incompétence/négligence ou ont-elles volontairement vendu à leurs clients des produits qu’elles savaient largement surcotés. Le débat s’est notamment centré sur le cas de Greg Lippman (Jared Vennett dans le film). Cela apparaît dans le film sans pour autant être totalement transparent, mais de tous les personnages, il est le moins indépendant. Le borgne et les ados du MidWest sont clairement indépendants des banques qui ont fabriqué et vendu les produits financiers défectueux. Mark Baum (alias Steve Eisman) est certes lié à Morgan Stanley, mais de manière moins directe (il dirige une équipe autonome au sein d’un important hedge fund racheté fin 2006 par Morgan Stanley). Greg Lippman était quant à lui un salarié direct d’une banque qui a refourgué énormément de CDO à ses clients, et alors que son entreprise faisait perdre beaucoup d’argent à ses clients avec ces titres, lui faisait gagner beaucoup d’argent à cette même banque en pariant contre (s’octroyant évidemment au passage d’importants bonus). La défense de la Deutsche Bank et du trader a été de dire que la banque croyait effectivement dur comme fer dans les CDO et que le trader faisait ses affaires dans son coin, jouissant de sa relative autonomie et ayant péniblement réussi à convaincre ses patrons de la laisser faire son pari contre les CDO sans pour autant les convaincre que les CDO étaient pourris. La justice a cru cette défense et ils ont été acquittés.

Mouillons-nous un peu

En dehors du cas précis, la question de la malhonnête ou de la négligence/incompétence dans le développement de cette catastrophe financière est importante. Je pense qu’il y a une grosse part d’incompétence à tous les niveaux, mais également une grande part de je-m’en-foutisme. « Je fais mon taf à mon échelon sans réfléchir à ce qui se passe dans les échelons précédents et suivants, et basta ! ». Les produits étaient devenus hyper alambiqués et peu de gens les comprenaient. Ce peu de gens capables de les comprendre n’allait pas perdre son temps (précieux, très précieux en terme de salaire horaire) à lire tous ces détails et à étudier le marché immobilier alors qu’on sait très bien que c’est l’investissement le plus sûr et qu’il est donc sans risque !

Après beaucoup de catastrophes, on se rend compte qu’il y a eu une flopée de négligences. Après Fukoshima, on s’est rendu compte que les normes de sécurité basiques n’étaient pas toutes appliquées. Mais bon, normalement y’a pas d’accident, alors pas mettre les normes de sécurité, normalement, ça passe ! Après l’explosion de Challenger, on s’est rendu compte que plein de gens savaient que les joints toriques n’avaient pas été testés convenablement aux grands froids (ce qui atténue un peu la portée de l’article utilisant ce crash pour montrer l’efficacité des marchés financiers). Mais bon c’est particulièrement pas de chance, parce que ça aurait pu (dû ?) passer et la négligence ne serait jamais apparue au grand jour. Combien de crashs aériens ont révélé des défauts de maintenance ? Sans parler du Rio-Paris, où certes il y a eu les sondes pitot, où certes il y a eu des pilotes qui semblent avoir particulièrement mal réagi, mais il y a eu aussi une sorte de jeu avec les règles de sécurité : on avait mal anticipé les bagages et on était un chouille en excédent de poids. Pas possible, même avec le plein, d’avoir assez de marge pour faire officiellement Rio-Paris. Mais on s’est dit, « ouai, mais la marge d’essence, elle est trop large, on en a assez en vrai ! », du coup on a officiellement enregistré le vol pour Bordeaux-Mérignac (avec dégagement pour Toulouse) en se disant qu’en arrivant vers la fin du voyage, on compterait l’essence, qu’il y en aurait assez et qu’on dirait « bon, finalement on pousse jusqu’à Paris sans s’arrêter à Bordeaux ». Mais en vrai, on était un peu juste en essence et on le savait, ce qui a pu aussi jouer dans la décision de traverser la zone orageuse plutôt que la contourner comme ont fait la plupart des autres avions.

On pourrait sans doute trouver des milliers d’autres exemples, et l’avenir nous en donnera malheureusement beaucoup. Quoi qu’il en soit, s’il ne faut surtout pas entrer dans la théorie du complot, s’il ne faut pas plus brandir l’incompétence avec certitude quand on ne comprend pas une décision, il faut sans doute aussi se méfier des arguments d’autorité. L’incompétence est loin d’être certaine, mais la certitude est souvent incompétente. L’esprit critique, le doute, doit nous habiter en permanence. Et le borgne qui a pris la peine d’aller regarder dans les notices la composition exacte des CDO a failli y laisser sa chemise mais y a finalement gagné gros sur le dos des…

[1] En fait, le vrai résultat de la loi des grands nombre, c'est le « théorème central limite », parfois appelé le « théorème de la limite centrale », ce qui est impropre car la limite n'est pas du tout centrale. En fait, c'est juste un théorème qui est vrai « à la limite » et qui est central dans la théorie mathématique des variables aléatoires. Bon, vous vous en foutez peut-être, mais vous pourrez toujours briller dans les salons avec une information aussi capitale que celle là.

[retour ; haut de page]

Introduction à la manipulation statistique, pédagogie par l'exemple

13 novembre 2015

Peu de phrases m'énervent autant que « on peut faire dire n'importe quoi aux chiffres ». Non, on ne peut pas leur faire dire n'importe quoi, mais on peut prétendre qu'ils disent ce qu'ils ne disent pas. Cela s'appelle de la manipulation statistique, c'est de l'ordre du mensonge. Je lisais dernièrement un livre qui a connu son moment de gloire l'année dernière (mais je ne suis pas toujours à la mode dans mes lectures) et j'ai été horrifié par une telle manipulation. Il s'agit de "La France périphérique, comment on a sacrifié les classes populaires" de Christophe Guilluy, paru en septembre 2014 aux éditions Flammarion. La thèse principale de ce livre pourrait se résumer ainsi :

La France se sépare en deux : les métropoles et la périphérie. La périphérie est habitée par les classes populaires françaises de souche (de plus en plus fragilisées) quand les métropoles sont habitées par les bobos (riches) et les immigrés (qui pourront progresser dans la hiérarchie sociale grâce à leur accès privilégié à ces métropoles dynamiques, du fait d'une politique du logement social à leur avantage).

Définition des métropoles et de la périphérie

Evidemment, le point essentiel avant d'essayer de démontrer cette thèse est de définir ce que sont les métropoles et ce qu'est la périphérie. Pour commencer, rien de tel qu'une dénonciation des "statistiques officielles" : les deux dernières sous-sections de l'ouvrage précédant les définitions de l'auteur de "métropole" et "périphérie" sont ainsi appelées "S'affranchir des catégories de l'Insee" et "La carte des aires urbaines ou 'la carte d'état-major' des classes dirigeantes". Pourtant ce n'est finalement pas du tout le découpage en aires urbaines qui est critiqué (puisqu'en fait ce sont bien celles-ci qui sont utilisées) mais certaines des statistiques générales faites grâce à elles.

L'Insee découpe le territoire en de multiples unités territoriales afin de donner toutes sortes de statistiques à l'échelle de ces unités. Il y a d'abord les unités administratives : anciennes et nouvelles régions, départements, arrondissements, communes. Puis des unités liées à l'habitat (les unités urbaines sont les ensembles d'habitat continu) ou à l'économie (les zones d'emploi sont construites à partir des mouvements pendulaires du domicile au travail). Les aires urbaines sont une forme d'unité liée à l'habitat et à l'économie puisqu'il s'agit d'un regroupement d'unités urbaines autour d'un pôle central d'emploi (le centre de l'aire urbaine est appelé le pôle urbain et les autres unités urbaines de cette aire urbaine la couronne). L'Insee définit tous ces découpages et donne un grand nombre de statistiques (économiques, démographiques, sociales…) pour chacune dans sa base de données locales. De plus, certaines publications utilisent ces données pour en donner une vue générale, en faisant des regroupements : par exemple grandes aires urbaines (plus de 10 000 emplois dans le pôle urbaine central), moyennes aires urbaines (entre 5 000 et 10 000 emplois), petites aires urbaines (entre 1500 et 5000 emplois) et hors toute aire urbaine.

Ainsi, l'auteur ne conteste ni le découpage en aires urbaines ni les données sur chacune de ces unités, mais en fait la classification en petite, moyenne et grande aires urbaines. Selon lui, la seule séparation qui aurait du sens serait celle qui établirait la limite entre les 25 plus grandes aires urbaines (les métropoles) et le reste (la périphérie). Pourquoi cette séparation ? On ne sait pas, il faut lui faire confiance puisqu'il nous dit que c'est celle-là la vraie, sans justification ni référence à une justification qui aurait été précédemment apportée. Le livre reprend les données de 2010, ce qui nous permet de dire, d'après les données de l'Insee, que les trois dernières aires urbaines de la catégorie "métropole selon Guilluy" sont Angers, Metz et Béthune quand les trois premières recalées sont Valencienne, Dijon et Le Mans (en 2012, Béthune et Dijon ont échangé leurs places). Mais en fait, l'auteur ne s'arrête pas là, car selon lui certaines communes des 25 plus grandes aires urbaines font en réalité partie de la périphérie. Mais comment les reconnaître ? C'est là qu'entre une première fois en jeu le critère de fragilité.

Caractérisation des différences entre les métropoles et la périphérie

Le critère de fragilité est construit comme le reste, de manière totalement arbitraire. On sent bien qu'il n'est pas totalement dénué de sens, loin de là, mais on se demande pourquoi lui et pas un autre, il ne coule pas de source et les choix ne sont pas expliqués. Huit critères sont choisis, dont certains redondants : par exemple le premier critère est le pourcentage d'ouvriers dans la population active et le second le pourcentage d'ouvriers et d'employés. Puisque le premier est le pourcentage d'ouvriers, pourquoi ne pas juste regarder le pourcentage d'employés ? Cela de fait (avec d'autre critères) surpondère le caractère ouvrier et industriel. On peut tout à fait justifier de regarder la France industrielle d'une part, dire que cette population est particulièrement sujette à la fragilité, mais il est étrange de seulement surpondérer le fait d'être une ville industrielle dans le critère de fragilité. Sont alors considérées comme fragiles les communes ayant plus de trois des huit critères situés au-dessus de la moyenne française.

Ensuite, les communes fragiles des couronnes des 25 plus grandes aires urbaines sont exclues des métropoles et renvoyées dans la périphérie. Ainsi, la distinction entre les métropoles et la périphérie dans la définition de Guilluy est construite en partie sur le critère de fragilité, puisque sont dans les métropoles les communes des 25 plus grandes aires urbaines sauf les communes fragiles de la couronne, et que sont périphériques les communes hors des 25 plus grandes aires urbaines plus les communes fragiles de la couronne.

Et c'est là qu'advient le clou du spectacle. Mesdames et Messieurs, la démonstration est inattaquable, regardez les chiffres : il y a davantage de communes fragiles représentant davantage d'habitants dans la périphérie que dans les métropoles ! Etant donné qu'on a choisi certaines communes comme faisant partie de la périphérie plutôt que de la métropole où elle semblait devoir être classées sur le seul critère qu'elles étaient fragiles, c'est heureux qu'on arrive à ce résultat. Mais ça ne prouve rien du tout, à part que l'auteur – pour le dire gentiment – manque cruellement de rigueur.

Un exemple révélateur : Hénin-Beaumont

Pour justifier sa thèse, l'auteur présente quelques cas marquants de cette périphérie délaissée et se révoltant contre la société multiculturelle qu'on lui impose. Comme, il fait le lien entre ces classes populaires, reléguées dans la périphérie et délaissées par les élites, et le vote FN, un de ses exemples forts est le cas d'Hénin-Beaumont. Mais cet exemple pose grandement problème au regard de sa thèse, car Hénin-Beaumont ne fait pas partie de la périphérie mais des métropoles, et ce, même dans sa propre définition : même si c'est assurément une commune fragile selon son critère, il n'a normalement pas pu la recaser dans la périphérie puisque c'est une commune du pôle urbain central de la 14ème plus grande aire urbaine de France (elle s'est faite dépasser par Montpellier depuis et est donc devenue la 15ème). D'ailleurs, c'est intéressant de comparer ce qui passe dans cette ville, dans son aire urbaine et dans le reste du département ; le tableau suivant le montre pour quelques statistiques.

On observe que cette aire urbaine, une métropole donc selon Guilluy, est bien plus dense que le reste du département - même si le département comporte une autre grande aire urbaine au sens de Guilluy (Béthune, en 2010, déclassée depuis) ainsi que Boulogne (66ème), Arras (68ème), Calais (72ème), puis dans les bas-fond du classement Berk et Saint Omer. Le reste est constitué de petites aires urbaines ou de zones rurales. On ne trouve évidemment pas d'agriculture à Hénin-Beaumont ni dans son aire urbaine, alors qu'on en trouve dans le reste du département. Globalement, et quel que soit le critère socio-économique, la "métropole au sens de Guilluy" de Douai-Lens va plus mal que le reste du Pas de Calais, sa périphérie. Et à l'intérieur de cette aire urbaine, Hénin-Beaumont va relativement mieux que le reste de sa zone d'emploi (la partie la plus urbanisée, autour de Lens) mais moins bien que la partie moins dense autour de Douai (dans le département voisin). En revanche, la part de l'industrie dans la production est étonnement stable entre toutes ces circonscriptions.

Il y a clairement une question socio-économique prégnante à Hénin-Beaumont, liée à l'évolution post-industrielle de la société, aux phénomènes de polarisation, de chômage de masse… mais le diagnostic de fracture liée à la multiple lutte métropole/périphérie ; élites/peuple ; multi-culturalité/identité française, si mal argumenté à l'aide de chiffres truqués, n'est probablement pas le bon. Si de grandes parties de la France souffrent, c'est probablement d'autres maux que des "flux migratoires incontrôlés, [de l']absence de réponse concrète face à la délinquance, [de l']émergence de la société multiculturelle [… et de l']émergence très rapide d'une classe moyenne issue de l'immigration maghrébine et subsaharienne", qui semblent être la principale obsession de Christophe Guilluy.

[retour ; haut de page]

Le rachat de Newen et la confusion entre service public et actionnariat public

2 novembre 2015

Après l'annonce du rachat de la société de production Newen par TF1, de nombreuses voix se sont élevées pour condamner cette acquisition, notamment du côté de France Télévision. En particulier, parmi les arguments présentés, le fait que France Télévision est un groupe audiovisuel public, financé par la redevance, est revenu assez fréquemment. Cet argument est assez troublant car il est difficile de voir le lien direct entre le fait que France Télévision est un groupe public et le problème du rachat par un de ses concurrents privés d’une société de production privée. Les anciens actionnaires privés de Newen étaient-ils plus légitimes à recevoir les dividendes de contrats passés avec la chaine publique (financés par la redevance) que ne le sont ses nouveaux actionnaires, tout autant privés : ceux de TF1 ?

Quel lien entre le rachat de Newen et la redevance ?

On comprend bien la plainte du côté de France Télévision, qui voit son principal concurrent se renforcer fortement, se renforcer tellement qu’il deviendrait propriétaire d’une entreprise de production elle-même propriétaire d’un certain nombre d’émissions diffusées par France Télévision. Le groupe public est clairement perdant à cette fusion, et tente donc de la condamner, tout comme aurait fait un groupe privé dans la même situation. Ce qui compte ici est qu’un concurrent sur le marché de la diffusion télévisée de divertissement craint de perdre fortement et la question principale est de savoir si la concurrence devient biaisée. Il s’agit donc bien d’une question de concurrence, en l’occurrence de concentration verticale, et pas d'un problème de service public.

La confusion provient sûrement du fait que France Télévision a deux parts : une part de service public et une part commerciale « classique » en concurrence directe avec des acteurs privés. Cette seconde part est particulière dans le sens où elle est opérée par une entreprise d’actionnariat public. D’une certaine manière, la partie service public n’aurait pas à s’inquiéter de la concurrence privée, son but est justement d’offrir un service télévisuel que les chaines commerciales (publiques ou privées) n’offrent pas. En revanche, la partie commerciale à actionnariat public a des raisons de s'inquiéter car sa position commerciale est clairement affaiblie par le renforcement de son principal concurrent.

La confusion entre service public et service (commercial) rendu par une institution publique

Or, il semble que la société de production rachetée vende beaucoup de programmes a beaucoup de chaines - privées et publiques - sans qu’on puisse observer de différences nettes entre les différents programmes, ni en termes de prix ni en termes de contenu. Il semble donc qu’il s’agisse bien là de la partie « commerciale classique » de France Télévision et non de sa partie « service public ». Donc la redevance, justifiée par le fait que France Télévision rend un service public télévisuel, n’a rien à voir avec l’acquisition de Newen par TF1.

La confusion est sûrement permise par le fait que les deux parties de France Télévision - service public et services commerciaux d’actionnariat public - ne sont pas clairement séparés et qu’il est donc possible d’appeler au respect de l’un quand l’autre est attaqué. On pourrait certes avancer que les deux sont liés parce que le profit réalisé sur la partie commerciale permet de financer en partie la partie service public en allégeant les besoins de ressources publiques pour ce faire. Il n’en reste pas moins un important point d’interrogation sur la légitimité qu’aurait l’Etat d’user de son pouvoir pour empêcher un acte commercial privé d’un acteur privé nuisant aux intérêts commerciaux d’une entreprise dont il est actionnaire.

Uniquement une question de concurrence

Car c’est bien d’une question de concurrence qu’il s’agit ici : est-ce que le rachat d’une des plus grosses sociétés de production télévisuelle par l’une des plus grosses sociétés de diffusion télévisuelle crée une concentration verticale telle qu’elle nuise au bon fonctionnement du marché de la télévision de divertissement ? Il est normal que les principaux concurrents de la société se renforçant ainsi plaident pour un défaut de concurrence. Et ce, qu’ils soient à actionnariat public ou privé. Mais la forme de leur actionnariat n’a rien à voir là-dedans, et le service public non plus.

Il conviendra seulement à l’autorité de la concurrence, qui sera probablement saisie vu les tailles des entreprises concernées par ce rachat, de donner son avis sur ce rachat et sur d’éventuels engagements que devraient prendre TF1 pour assurer qu’il n’y aura pas d’atteinte à la concurrence sur le marché de la diffusion télévisuelle. En particulier, il est probable qu’un certain nombre de garanties seront demandées pour s’assurer que Newen continuera de traiter de la même façon l’ensemble de ses clients, leur maison mère comme leurs concurrents, que ces concurrents soient des chaines publiques ou privées.

[retour ; haut de page]

Assumons le dynamisme de nos métropoles

avec Philippe Martin, Le Monde, 30 juin 2015

Il est facile d’opposer les métropoles aux territoires déshérités, oubliés de l’activité économique. C’est une erreur. Par leur dynamisme, les métropoles sont appelées à tirer la croissance française, et donc à solvabiliser notre système de service public et de transferts sociaux. Enrayer la croissance des métropoles au motif que l’activité devrait se répartir plus harmonieusement sur tout le territoire, c’est affaiblir notre position dans la concurrence mondiale. Il ne faut pas confondre égalité entre territoires et égalité sociale.

Il importe d’assurer à chaque individu une égalité des chances sur tout le territoire, mais il serait contre-productif de chercher à tout prix à disperser l’activité. C’est ce qu’expose une note du Conseil d’analyses économiques (CAE) coécrite avec Philippe Askenazy (Philippe Askenazy et Philippe Martin, « Promouvoir l’égalité des chances à travers le territoire », note n°20, février 2015). Celle-ci se concentre sur les inégalités au niveau des régions et ne traite pas des inégalités au niveau des villes ou des quartiers qui appellent d’autres analyses.

Nous partons d’un certain nombre de constats, dont le fait que depuis le début des années 1990, la croissance de l’activité diffuse moins vers les régions moins développées. Autrement dit, l’activité productrice a arrêté de se déconcentrer. Mais dans le même temps, par le jeu principalement des transferts mais aussi de la mobilité et de la distribution géographique des revenus du patrimoine, les inégalités interrégionales de revenu disponible des ménages ont continué à diminuer. Il y a eu ainsi une dissociation croissante entre la géographie de la production et la géographie des revenus.

Les chiffres relatifs à l’Ile-de-France résument bien cela : si cette région a produit 30 % du produit intérieur brut (PIB) métropolitain en 2012, ses habitants n’ont disposé que de 22,5 % du revenu disponible des ménages. Les politiques publiques devraient-elles aller contre ce phénomène d’agglomération des activités économiques et contre ces pôles de croissance que sont les grandes métropoles ?

Concentration et productivité

Ce qu’on apprend de la « nouvelle géographie économique », à la suite des travaux du Prix Nobel d’économie (2008) Paul Krugman, nous amène à répondre par la négative. La concentration spatiale des activités de production et de recherche d’un secteur permet d’augmenter la productivité et donc la croissance de long terme. Les études empiriques récentes montrent que la productivité des entreprises françaises augmente lorsque d’autres entreprises du même secteur s’installent à proximité.

Cela permet en effet une utilisation plus efficace des infrastructures publiques, une meilleure adéquation entre emplois et travailleurs, et aussi des externalités technologiques, en particulier pour ce qui concerne les activités de recherche. Toulouse dans le secteur aéronautique, Sophia Antipolis dans celui des technologies de l’information et de la communication sont des exemples de ce type de gains d’agglomération.

En revanche, une trop grande spécialisation territoriale peut être dangereuse en augmentant la vulnérabilité à des chocs sectoriels rendus plus probables avec la mondialisation. L’histoire a montré combien certaines régions ont souffert d’avoir lié leur destin à un seul secteur industriel. C’est justement l’avantage des grandes métropoles qui bénéficient des gains d’agglomération mais aussi d’une structure économique diversifiée.

Les grandes aires urbaines ont ainsi mieux résisté à la crise que les villes de petite et moyenne taille : alors que dans les premières l’emploi a augmenté, il a baissé dans les secondes depuis 2008. Nous tirons de ces constats la conclusion que les politiques publiques ne devraient pas freiner l’émergence de pôles de croissance mais au contraire s’attaquer aux effets de congestion dans les zones en tension. L’association de règles de décision d’urbanisme à un niveau très local et d’aides à la pierre non ciblées a engendré une localisation de la construction inadaptée aux besoins.

Disparités d’accès aux soins

Les priorités sur le transport public doivent aussi être réorientées sur les grandes agglomérations plutôt que sur les TGV. Rappelons qu’aujourd’hui, l’Ile-de-France représente 22 % du trafic ferroviaire et ne bénéficie que de 9 % des financements du réseau. Le projet du Grand Paris Express à l’horizon 2030 est une prise de conscience bien tardive.

Il est indispensable dans le même temps, d’assurer une égalité des chances et de bien être des individus à travers tout le territoire, en termes d’accès à l’éducation, à l’emploi et à la santé et en levant les freins à la mobilité des individus. Dans les zones peu denses, il ne semble pas judicieux de chercher à installer des activités économiques de manière artificielle. Il n’est pas non plus efficace de disséminer des universités de petite taille, cela ne serait pas rendre service aux étudiants. Il faudrait plutôt faciliter leur mobilité pour permettre à tous d’accéder à un enseignement supérieur de qualité.

Pour ce qui est de l’enseignement primaire et secondaire, en revanche, il faut concentrer l’effort public sur les territoires les plus défavorisés. Aujourd’hui, le financement de l’apprentissage est très inégalement réparti sur le territoire car est déterminé par la localisation des entreprises. Nous proposons de fixer au niveau national une dotation que chaque apprenti apporte à son centre d’apprentissage quelle que soit sa localisation.

Enfin, dans le domaine de la santé, d’importantes inégalités territoriales persistent comme le confirme le récent rapport du ministère de la santé. Ceci est en partie dû à de fortes disparités d’accès aux soins sur le territoire. Il est nécessaire de renverser la logique de financement des soins : les moyens doivent suivre les besoins des populations locales au lieu de suivre l’offre médicale comme c’est le cas actuellement.

[retour ; haut de page]

Les cinq phases du deuil des politiques publiques

17 février 2015

Beaucoup de choses ont été dites sur les liens entre les chercheurs académiques et les décideurs politiques, encore plus reste à dire certainement. Mon but ici est uniquement de donner un modeste témoignage et mon sentiment sur ce qui parfois fait que ce lien n’est pas celui qu’on pourrait espérer, celui que le fameux « idéal démocratique » met si souvent en avant. Comme je suis du côté des académiques, et pire encore des économistes – donc donneur de leçons et persuadé (bien conscient voulais-je dire) que personne à part moi (éventuellement nous) ne comprend rien à rien – je prendrai volontairement un parti totalement partial en ne regardant que la paille (mais quelle énorme paille) dans l’œil de l’administration et passant complaisamment sous silence la si petite poutre dans l’œil des universitaires. Pour l’avoir vécu de nombreuses fois, la réception par l’administration d’évaluations de politiques publiques, quand les évaluations sont défavorables, suit le cheminement suivant en cinq phases observables à travers les questions posées aux chercheurs venus présenter ses travaux.

Pour un peu plus de vie dans l’exposé de ces cinq phases, je prendrai un exemple : l’impact inflationniste des allocations logement. Une étude récente (une version courte et didactique est disponible ici) utilise les frontières géographiques entre niveaux d’allocation logement pour le montrer. L’idée est que les prix de l’immobilier diminuent au fur et à mesure qu’on s’éloigne du centre d’une unité urbaine. Les allocations logement tiennent compte de cela et sont croissantes avec le niveau de tension du marché du logement. Pour plus de lisibilité, il n’y a pas une allocation pour chaque pâté de maison mais trois niveaux d’allocation en tout : un pour l’île de France (la zone 1) et deux pour le reste du pays (les zones 2 et 3). Quand on franchit la rue qui sépare la zone II de la zone III, les allocations logement baissent (ou augmentent selon notre sens de franchissement de cette rue) soudainement. Or, la baisse des prix de l’immobilier avec la distance au centre est en général continue. Les auteurs observent cependant une discontinuité des prix de l’immobilier au niveau du changement de zone des allocations logement, et à ce niveau uniquement. Ils en déduisent logiquement que les allocations logement ont un impact sur les prix de l’immobilier.

Phase 1 : le déni

La première question après la présentation des travaux est toujours : Vous avez dû vous tromper, oublier un effet qui biaise vos estimations. Tiens, regardez, ce n’est pas du tout à cause de l’allocation logement que c’est plus cher, mais bien parce que c’est plus cher qu’on donne plus d’allocations logement. Ce à quoi le conférencier répond en refaisant son topo sur sa stratégie d’identification : évidemment, les prix sont en moyenne plus élevés dans la zone 2 que dans la zone 3, mais ce qu’on observe, c’est que ces prix connaissent un saut au passage entre zones alors même que le tissu urbain ne connait pas de saut. C’est ce saut qui est révélateur de l’influence des allocations logement sur les prix et non la différence moyenne des prix.

Certes les évaluations sont toujours soumises à des doutes statistiques et méthodologiques. Mais ce qui est intéressant, c’est l’utilisation à sens unique du doute. Au chercheur qui présente ses résultats évoquant une forte inefficacité d’une politique publique, on lui rétorque le doute scientifique. En revanche, quand il s’agit de renforcer encore cette politique, d’en augmenter l’ampleur, on évoque finalement peu le doute sur son efficacité réelle, même si ce doute est plus que sérieux puisque de nombreuses études montrent son inefficacité. Cela marche dans le sens inverse s’il s’agit de couper une politique publique dont on ne veut plus malgré des études montrant son efficacité : on évoquera le doute scientifique sur ces études.

Phase 2 : la colère

La seconde question fuse assez rapidement après la première, sur un ton énervé : Tous les pays ont des allocations logements, vous êtes donc en train de dire que tous les pays mènent une politique inefficace ? Le conférencier ne se démonte pas. Effectivement, de nombreux pays ont des dispositifs similaires. Ceci permet d’ailleurs de réaliser des études statistiques similaires dans d’autres pays. Ainsi, outre les autres études françaises trouvant les mêmes résultats avec d’autres méthodologies (ici et ici), l’effet inflationniste a été montré aux Etats-Unis, en Grande-Bretagne et en Finlande.

Phase 3 : le marchandage

Viens alors la phase de marchandage : Oui… mais en fait non : ce que vous montrez, ce n’est pas que les allocations logements sont inflationnistes… c’est juste que leur zonage a été mal fait. Là, un petit blanc. Heu, non, le coup du zonage sert uniquement d’instrument pour estimer l’impact. Là où le niveau des allocations logements est discontinu apparaît de manière saillante l’effet inflationniste, mais celui-ci n’est en rien créé par le seuil. Si on lisse tous les effets de seuil, on ne décèlera plus l’effet inflationniste par ce biais, mais cela ne le fera pas disparaître pour autant.

Une autre méthode de marchandage classique est l’invocation d’un double dividende. Il est souvent utile pour défendre politiquement l’introduction d’une mesure d’argumenter qu’elle a de multiples dividendes. Abondance de biens ne nuit pas. Par exemple : les réductions d’impôt pour les services à la personne permettent en même temps de répondre à des besoins sociaux (garde d’enfants et dépendance des personnes âgées) et de créer des emplois. C’est encore plus pratique quand il s’agit de la défendre contre des évaluations défavorables. Pour être précise, une évaluation doit souvent se concentrer sur un point particulier, et donc évaluer les multiples dividendes un par un. A chaque fois qu’un point sera montré inefficace, on marchandera en disant qu’il y a les autres, quand bien même d’autres études montrent que les autres dividendes sont tout aussi douteux.

Il est donc important de réunir l’ensemble des évaluations. Toutefois, celles-ci nécessitent des compétences techniques ou des questionnements disciplinaires différents. Or, du point de vue de l’interdisciplinarité (ou ne serait-ce que de l’inter-méthodologie à l’intérieur d’une discipline), l’université pèche fortement. Pour autant, les choses changent et des projets d’évaluation globaux recouvrant plusieurs études selon des méthodologies différentes par des chercheurs de disciplines différentes commencent à voir le jour. Pour revenir à l’exemple cité de double dividende dans les services à la personne, sortira prochainement un ouvrage collectif regroupant des études d’économistes, de juristes, de politistes et de sociologues sur la situation dans plusieurs pays européens. J’en reparlerai plus longuement ici après sa sortie.

Phase 4 : la dépression

Mais revenons à nos cinq phases du deuil, et plus précisément la quatrième. Devant la salle qui ne sait plus trop à quoi s’en tenir, un responsable prend la parole, et semble s’adresser à ses ouailles plus qu’il ne pose une question ou fait un commentaire : Certes, cette mesure a probablement des effets inflationnistes, mais que faire ? Faudrait-il tout changer ? Certes non, cela ferait des perdants. Le sous-entendu est que faire des perdants est politiquement interdit. Ce fameux argument des perdants est tellement récurrent qu’il en est décourageant. S’il existe une situation tellement inefficace qu’on puisse en sortir sans léser personne, alors il ne faut pas hésiter. Malheureusement, le plus souvent, des personnes bénéficient du statu quo. En particulier, si on veut corriger une politique qui a des conséquences distributives que l’on juge mauvaises, on ne peut le faire sans faire des perdants : ceux-là même qu’on considère comme les gagnants indus de la situation précédente.

Phase 5 : le refoulement

Que restera-t-il de tout cela une fois que tout le monde aura regagné son bureau, au ministère ou à l’université. On pourrait espérer que les résultats des évaluations infusent petit à petit, au fil des années. Malheureusement, il est également possible qu’ils ne le fassent pas : Quoi ? Un impact inflationniste des allocations logement ? Ahhhh oui… il me semble en avoir entendu parler une fois dans un séminaire. Je ne sais plus trop bien pourquoi, mais in fine on avait conclu que ça ne changeait rien sur le fond.

[retour ; haut de page]

Extrême recentrage

le 1 hebdo n° 42, 4 février 2015

La corrélation entre la montée des extrêmes et les mesures d'austérité est trompeuse car la crise a en même temps engendré une réponse austère et exacerbé les mécontentements. Le mouvement Pegida est né dans une Allemagne relâchant son austérité issue des lois Hartz de 2003-2005, en particulier avec la mesure emblématique de création d'un salaire minimum à 8,50 euros de l'heure à partir du 1er janvier 2015. à l'opposé, il semble que certains partis extrémistes aient vu leur cote de popularité monter suite à un recentrage. Le changement de leader au Front national a contribué à lisser le discours : toujours très virulent en apparence à l'encontre des partis habitués au pouvoir, sa charge extrémiste s'est néanmoins estompée.

En Grèce aussi, Syriza, étiqueté "gauche radicale", s'est recentré au cours de la campagne jusqu'à s'en tenir à un programme assez proche de celui du Pasok au début de la crise. Le nouveau ministre des Finances, Yanis Varoufakis, est d'ailleurs un ancien conseiller de Papandréou. Modeste proposition pour résoudre la crise de la zone euro (Les Petits Matins, 2014), le livre qu'il a écrit avec son collègue à l'université du Texas, James Galbraith, et Stuart Holland (ancien membre de la chambre des communes britannique et ancien conseiller de Jacques Delors), avance des solutions à la crise tout à fait modérées. Il ne remet en cause ni l'impossibilité de la BCE de monétiser la dette ni le refus par droit de veto des états excédentaires de garantir la dette des autres.

Il n'y a pas de marge de manœuvre budgétaire en Grèce pour augmenter les dépenses sans augmenter les recettes. La déflation qui suivrait une sortie de l'euro pourrait certes améliorer à long terme la balance commerciale grecque. Mais cela créerait à court et moyen termes un choc de pouvoir d'achat plus important que les baisses de salaires précédemment consenties. Le quart de la consommation est importée, on verrait donc les prix de ces marchandises s'envoler, avec un effet induit sur les productions locales lié à l'augmentation du prix des intrants, dont l'énergie.

Reste à négocier des rabais ou délais de remboursement. L'acceptabilité dépend des réformes mises en place. Une des raisons pour lesquelles la Grèce en est là, c'est sa faible capacité à prélever des impôts. La France se permet un des niveaux de dépenses publiques les plus élevés du monde parce qu'elle parvient à prélever les ressources fiscales pour le faire. Une réforme globale de la fiscalité doit faire partie du programme grec. Si est mis en place un système de transferts qui prélève (de préférence sur ceux qui en ont les capacités) les ressources pour financer une couverture sociale répondant à la "crise humanitaire" dénoncée par le nouveau Premier ministre grec, alors il serait souhaitable que le reste de l'Europe apporte son aide (notamment financière) pour faciliter cette transition. Une hausse du salaire minimum et des minima sociaux pourrait faire partie de cette réforme. En revanche, une baisse d'impôt touchant également des contribuables solvables serait plus problématique.

Le traitement de la taxe foncière - une taxe impopulaire que de nombreux Grecs n'ont pas payée en prévision d'un éventuel cadeau d'intronisation - sera crucial. La valeur des logements habités augmentant moins vite que le revenu des ménages qui les habitent, les taxes foncières sont généralement des impôts régressifs (quand une part substantielle de la population est propriétaire de son logement, comme c'est le cas en Grèce). Il peut alors être fondé de modifier cet impôt, soit à travers un barème progressif, soit par incorporation dans une taxe plus globale sur le patrimoine. En revanche, une baisse sans compensation "en haut" de la distribution des revenus serait un bien mauvais présage, malheureusement en adéquation avec l'alliance opérée avec la droite nationaliste. Il faut augmenter la fiscalité sur les plus aisés pour compenser la diminution "en bas" des revenus distribués.

[retour ; haut de page]

Emploi, ce que l’on pourrait faire au même prix

avec Bruno Palier et Michaël Zemmour, les Echos, 1er décembre 2014

On lit souvent que la France est l'un des pays où les prélèvements obligatoires sont parmi les plus élevés du monde. La France est aussi l'un des pays où les politiques d'exemption fiscale et d'exonération de cotisations sociales sont les plus développées. Le coût budgétaire des dispositifs mis en place dans le seul domaine de la protection sociale et de l'emploi dépasse les 90 milliards d'euros (hors Cice). Deux programmes, parmi les plus coûteux et les mieux connus, visent spécifiquement à faire baisser le coût du travail des emplois peu qualifiés : les exonérations générales de cotisations employeur et les dispositifs concernant l'emploi de salariés à domicile. Les pertes de recettes fiscales et sociales au titre de ces deux politiques représentaient en 2011, 27 milliards d'euros soit 1,3 point de PIB.

Une méta-analyse des nombreuses évaluations existantes permet d'évaluer l'impact de ces politiques. Les travaux les plus récents calculent un coût (sans doute sous-estimé) de l'ordre de 40.000 euros par emploi créé, mais il ne s'agit là que d'une moyenne. En effet, l'efficacité marginale de ces mesures socio-fiscales est fortement décroissante. Autrement dit, chaque milliard supplémentaire dépensé via ces dispositifs crée moins d'emplois que le précédent. On estime, par exemple, que la mise en place de la réduction d'impôt pour l'emploi d'un salarié à domicile en 1992, avec un plafond de 3.811 euros par an, a permis la création de 27.556 emplois en équivalent temps plein pour un coût de 39.113 euros par emploi créé. Mais, en 2003, l'augmentation du plafond du même dispositif, de 6.900 à 10.000 euros, n'a créé que 553 emplois soit un coût de 159.494 euros par emploi créé (une efficacité quatre fois moindre).

L'examen des évaluations universitaires disponibles, montre qu'au moins 6 milliards d'euros sont consacrés à des politiques dont le coût par emploi créé est supérieur à 62.500 euros par an, dont plus de 1,9 milliard d'euros à des politiques dont le coût par emploi créé est supérieur à 160.000 euros. Or, un emploi au SMIC, sans exonérations, avec une complémentaire santé, un treizième mois, revient annuellement à 30.000 euros, coût d'encadrement compris.

Un meilleur usage de l'argent public consisterait à consacrer le même budget (6 milliards d'euros) à créer 200.000 emplois financés directement sur fonds publics. Ceux-ci pourraient éventuellement être utilisés par des acteurs privés, par exemple dans les secteurs de l'accueil des jeunes enfants ou de l'aide à domicile pour les personnes âgées dépendantes.

Certes, ces emplois remplaceraient en partie des emplois existants - ce qu'on appelle l'effet d'éviction. Mais, compte tenu de l'énorme écart entre le coût par emploi créé des dispositifs actuels et le coût direct d'un emploi, le passage au financement public direct serait tout de même créateur net d'emplois. L'effet d'éviction serait d'ailleurs d'autant plus faible que la création d'emplois serait ciblée pour répondre à des besoins sociaux aujourd'hui non satisfaits, comme l'aide aux personnes âgées dépendantes ou la petite enfance. En effet, non seulement le coût des politiques actuelles est particulièrement élevé, mais nombre des emplois qu'elles permettent ne répondent pas aux besoins sociaux les plus manifestes : pour les services à domicile par exemple, les exemptions fiscales bénéficient avant tout aux ménages aisés, non seulement pour les aider à prendre en charge les membres de leur famille, mais aussi souvent pour prendre en charge une partie du coût de leur femme de ménage ou de leur jardinier. A l'opposé, les ménages modestes n'ont pas accès à ces services.

En définitive, ce que nous coûtent les politiques de « baisse du coût du travail » (y compris le Cice pour lequel on pourrait appliquer le même raisonnement) ne se mesure pas uniquement en milliards. Dans un contexte budgétaire contraint, les moyens qui leur sont consacrés privent l'Etat de l'opportunité de mener des politiques d'investissement social, au moins aussi créatrices d'emplois, mais qui répondent aux défis sociaux de notre époque.

[retour ; haut de page]

Optimisation fiscale 101

24 novembre 2014

Lors de la rencontre des ministres des finances du G20 les 20 et 21 septembre derniers à Cairns en Australie, ces derniers ont validé les propositions de l’OCDE en vue de limiter les problèmes des systèmes fiscaux nationaux pour imposer les sociétés multinationales. Alors que l’OCDE a longtemps eu comme objectif fiscal principal de limiter les phénomènes de double taxation afin de favoriser le commerce international, l’organisation se penche depuis l’été 2013 sur la question de la double non taxation et en particulier sur les questions d’évasion fiscale via l’érosion de la base ou les transferts de profits taxables entre les différentes filiales localisées dans différents régimes fiscaux (BEPS en anglais pour Base Erosion and Profit Shifting). S’il n’est pas nouveau, le problème s’est accru par la mondialisation des échanges mais surtout des financements, et par la part grandissante des immatériels parmi les actifs des sociétés multinationales. Petit récapitulatifs des grands principes d’optimisation fiscale des entreprises multinationales.

La question des prix de transferts

Une première méthode pour faire de l’optimisation quand on est un groupe multinational consiste à bien choisir ses prix de transfert. Pour prendre le cas le plus simple possible, supposons qu’une filiale A dans le pays 1 produise un bien essentiel à la fabrication du bien final (pour un coût unitaire a), qu’elle vend à une autre filiale B dans le pays 2 qui produit le bien final (avec le bien intermédiaire et un coût supplémentaire b). Supposons que le groupe formant les deux entreprises puisse vendre le bien final au prix p et réaliser ainsi un profit π=p-a-b. Le groupe d’entreprises peut transférer tout le profit dans le pays 2 en tarifant la vente du prix intermédiaire au prix "a" ou au contraire transférer tout le profit dans le pays 1 en tarifant le bien intermédiaire au prix a+π. Ce prix de vente de bien intermédiaire entre filiales d’un même groupe peut donc être choisi non en fonction de considérations économiques (la part de la valeur du bien final produite par le maillon constitué de la production du bien intermédiaire A) mais en fonction de considérations fiscales (lequel des pays 1 ou 2 impose le moins les bénéfices des entreprises).

C’est pour cela que les pays tentent de contrôler les prix de transferts (ces prix entre filiales). Cependant, il n’existe de pas de théorie de la valeur permettant de déterminer le juste prix d’un bien à partir de données administratives (cf. le supplément bonus HPE infra). Ainsi, le principe général pour le contrôle des prix de transfert est le arm’s length principle, qui consiste à comparer le prix de transfert contrôlé avec des transactions équivalentes entre des entités indépendantes. Si le siège social de Renault achète des Nissan produites au japon pour son parc automobile, on va comparer le prix du contrat avec des contrats équivalents entre Nissan et d’autres entreprises indépendantes. Dans certains cas (des consommations relativement usuelles) cela peut être aisé, mais c’est bien plus compliqué pour des biens très spéciaux, qui ne sont en fait produits que par la filiale A, et vendus uniquement à la filiale B.

En particulier, il est très compliqué obtenir une référence pour appliquer ce arm’s length principle dans le cas des droits d’utilisations des actifs immatériels, des royalties de la propriété intellectuelle. Pour cela, il n’existe aucune référence à laquelle comparer le prix de transfert. Ceci est particulièrement saillant dans l’économie numérique, où la très grande majorité de la création de valeur est liée à de la propriété intellectuelle sur les algorithmes, mais cela concerne également des productions tout ce qu’il y a de plus matérielles. Supposons ainsi le cas d’une chaîne de bistrots. Elle peut annoncer que son succès est dû au goût unique et uniformisé de son café (selon une recette de torréfaction constituant un actif incorporel) et au concept d’aménagement intérieur (également incorporel). Cette chaîne situe sa maison mère en Irlande, et lui alloue la propriété de tous les actifs incorporels. Elle loue l’utilisation de cette propriété intellectuelle à des filiales exploitant des bistrots à Londres ou à Paris. Les royalties sont calculées pour que les filiales londoniennes et parisiennes soient juste à l’équilibre financier et ne soient donc pas imposées au fort taux continental, mais que l’intégralité du profit soit transféré par les droits de propriété intellectuelle à la filiale en Irlande et imposé à son faible taux. Il est alors compliqué pour les administrations fiscales française et anglaise de contester ce prix de transfert car il n’existe pas d’équivalent pour servir de référence au prix de transfert.

La question des paradis fiscaux

Si elle veut éviter aussi le faible taux irlandais, une entreprise peut aller encore plus loin. Au fur et à mesure qu’une entreprise numérique de la silicon valley ne rapatrie pas ses profits aux USA, elle gonfle les comptes d’une filiale aux îles Caïman. Mais il faut les réinvestir. Alors cette filiale peut financer des chercheurs de la silicon valley pour faire des innovations. Comme elle les a financées, elle est propriétaire de l’innovation de son brevet et c’est à cette filiale des îles Caïmans que son payées les Royalties.

Pour lutter contre ce type de montage (et il semble qu’on commence à vraiment vouloir le faire), il convient de conditionner la non-taxation d’un revenu à payer à l’étranger au statut fiscal de cet étranger. C’est un des points essentiel présenté par l’OCDE et accepté par le G20. Ainsi, une entreprise déclare dans un pays son bénéfice fiscal comme la différence entre ses recettes et ses coûts déductibles. Alors elle doit non-seulement montrer la réalité des coûts pour qu’ils soient déductibles, mais également que le paiement de ses coûts donne lieu à un bénéfice taxable pour l’entreprise qui reçoit ce paiement. Si ce coût est payé à une entreprise située dans un paradis fiscal, alors il n’est pas déductible du bénéfice taxable de l’entreprise payeuse et sera donc imposé.

La question des prêts et des produits hybrides

Les prix de transfert ne sont pas le seul moyen de transférer du profit d’une filiale à une autre. Cela peut être fait à partir des modes de financement, et notamment grâce au prêt intra-groupe. Cela est permis par le fait que les intérêts d’emprunt sont déduits du bénéfice taxable. Ainsi, supposons qu’un groupe veuille faire un investissement sur fond propre dans un pays A à fort taux d’imposition des sociétés. Il peut apporter ses fonds propres à une filiale B dans un pays à faible taux d’imposition, filiale B qui prête à la filiale A les fonds nécessaires à l’investissement. Une fois les profits liés à l’investissement réalisés, la filiale A rembourse à la filiale B et transfert une partie des bénéfices dans le pays B via les intérêts, qui sont taxés à faible taux dans le pays B au lieu d’être taxés à taux élevé dans le pays A.

Ce type de transfert pourrait être facilement interdit en n’autorisant pas la déduction des intérêts des prêts accordés par une entreprise du même groupe. Seulement ce pourrait être économiquement pénalisant pour certains groupes. Suivant les caractéristiques des groupes, les levées de fonds peuvent s’avérer plus simple dans certains pays que dans d’autres, conduisant à un motif économique de lever les fonds dans un pays et de les transférer dans le pays nécessitant les investissements via des prêts intra-groupes. Les solutions, en très grande partie déjà mises en place, consistent en un contrôle accru des prêts intra-groupes et un plafonnement de leur niveau de déduction au travers de calculs de ratio d’endettement intra-groupes.

Dans le même genre d’idées, mais de manière plus complexe, il peut être rentable d’utiliser des « produits hybrides ». Ce sont des contrats de financement suffisamment compliqués pour qu’il ne soit pas clair s’ils sont à classer comme dettes (et imposables après remboursement au niveau de l’entité récupérant les intérêts) ou comme fonds propres (et imposables avant versement au niveau de l’entité ayant exploité l’investissement). Ainsi, si une entreprise opère entre deux pays ayant une interprétation différente du produit hybride, par exemple le pays A le considère comme une dette et le pays B comme des fonds propres, il est alors possible de l’utiliser pour financer depuis le B des investissements dans le pays A. Les rendements de ces investissements sont ensuite transférés dans le pays B via rémunération du financement. Le pays A considère ce transfert comme des intérêts, et donc taxables dans le pays B, mais le pays B les considèrent comme le rapatriement d’un revenu généré dans le pays A et donc taxable dans le pays A : le profit n’est finalement taxé nulle part. La solution proposée par l’OCDE, hors l’harmonisation des principes fiscaux, est de conditionner la déduction dans le pays A à la vérification que le revenu sera effectivement taxé dans le pays B.

Vers une uniformisation des conventions fiscales

Tout cela demande des coopérations fortes, qui sont d’autant plus coûteuses aussi bien pour les entreprises (en coût de conformité) que pour les Etats que les conventions fiscales entre Etats sont presque toujours bilatérales. L’OCDE propose ainsi de concevoir une convention normalisée pour limiter la complexité des systèmes en ayant les mêmes conventions entre tous les pays. Mais pour vraiment avancer et simplifier la compréhension et l’application de ces conventions, il faudrait aller vers un système de comptabilité unifié. Il est plus simple de faire le point dans les transferts entre deux entreprises dans deux pays différents si leurs comptabilités sont calculées selon les mêmes règles. Cette idée de comptabilité unifiée avait été tentée par l’Union Européenne avec le projet CCCTB (common consolidated corporate tax base, pour Assiette commune et consolidée pour l’imposition des sociétés). Le changement de comptabilité introduirait un coût d’ajustement pour les entreprises, mais diminuerait à long terme les coûts de mise en conformité des entreprises transnationales. Le problème est qu’en matière fiscale, il faut l’unanimité des Etats membres pour introduire une telle réforme, et que celle-ci sera probablement difficile à obtenir.

Supplément bonus HPE : une histoire des théories de la valeur

Pour revenir à la question initiale des prix de transfert, la solution serait simple si on pouvait facilement définir juridiquement le « juste prix » d’un bien intermédiaire ou d’une licence d’utilisation d’un actif immatériel. On pourrait alors définir la « juste » répartition territoriale de la valeur à partir de la reconstitution de juste prix de chaque maillon de la chaine de production de la valeur pour allouer à chaque pays la valeur créé chez lui. Chaque Etat taxerait cette part uniquement et cette part complètement. Mais le problème est qu’il n’existe pas de théorie de la valeur sur laquelle cette estimation juridique pourrait reposer. Pour mieux s’en rendre compte, il peut être utile de réaliser un petit détour vers l’histoire de l’analyse économique pour comprendre comment ont été modélisées différentes théories de la valeur au cours des deux derniers siècles.

La théorie de la valeur travail

Chez les auteurs classiques (de Smith 1776 à Marx 1867 pour fixer les idées) la théorie de la valeur a été construite sur deux points : un paradoxe et une notion d’arbitrage dans la décision de production. Le paradoxe est celui du diamant (qui est très cher mais peu utile) et de l’eau (qui est très utile mais bon marché) de Smith, qui justifie le fait que la théorie de la valeur ne peut pas être bâtie sur des considérations liées à l’utilité de la consommation. Ainsi, seules les conditions productives définissent la valeur d’une marchandise. La notion d’arbitrage dit que pour que différents biens soient produits et échangés, il faut que des individus mettent leurs ressources productives dans la production des premiers et d’autres dans la production des seconds, soit que les rendements de cet investissement de ressources productives soit le même pour les deux productions (sinon tout le monde déciderait de produire la marchandise au meilleur rendement). Or comme in fine les ressources productives sont toutes d’une manière ou d’une autre du travail (il a bien fallu produire le capital avec du travail et des outils, eux-mêmes produits avec du travail et…), c’est bien la quantité de travail total nécessaire à la production qui définit la valeur d’une marchandise : c’est la théorie de la valeur travail (pour plus de détails, voir les sections 1 des chapitres 2, 3 et 4 de mon cours d’histoire de la pensée économique.

D’une certaine manière, il s’agit d’une forme de théorie via le coût de production, mais celle-ci a du mal à expliquer un certain nombre de phénomènes observés dans les prix et les salaires. Notamment, cette théorie, appliquée au prix de la force de travail achetée comme une marchandise conduit naturellement à considérer le salaire comme égal à la quantité de travail qu’il faut pour produire de la force de travail, c’est-à-dire à la quantité de travail qu’il faut pour faire survivre un travailleur, soit la force de travail pour produire la subsistance d’un travailleur : le salaire est donc égal au niveau de subsistance. Or, les salaires réels ont commencé à grandir sensiblement à partir de 1840 en Grande-Bretagne (après la Engels’ pause démontré par Bob Allen) et à partir de 1870 en France (après la Zola’s pause montrée par le même Bob Allen, voir les fichiers excell des salaires réels en Europe. Non seulement cela remet en cause une partie des résultats de la théorie de la valeur travail, mais en plus cela ouvre l’intérêt de l’étude des décisions de consommation. Tant qu’un individu n’a qu’un revenu de subsistance, il achète sa subsistance et c’est tout ; quand il lui reste du revenu après s’être rassasié, il peut allouer ce surplus selon ses goûts, ses préférences, l’utilité que lui apporte la consommation de ses achats.

La révolution marginaliste

Alors (et pour bien d’autres raisons aussi, dont le remplacement d’une théorie classique accaparée par ses développements Marxistes), la notion d’utilité de la consommation a fait son retour dans l’explication des prix avec l’analyse marginaliste initiée aux débuts de la décennie 1870. Il s’agit maintenant d’un arbitrage marginal, sur les dernières unités consommées de chaque bien, conduisant in fine à égaliser le rapport utilité/prix de chacune de ces dernières unités consommées. Si en plus on suppose que les entreprises sont en concurrence pure et parfaite, le prix est aussi égal au coût marginal de production. On a alors réconcilié l’explication du prix par le coût de production ou par l’utilité de la consommation puisqu’en fait on produit une quantité de bien telle que l’utilité de la consommation de la dernière unité produite (la moins utile de toutes) est exactement égale au coût de sa production.

Tout cela est magnifique mais en général on n’est pas en concurrence pure et parfaite, et alors, si l’égalité du prix avec l’utilité marginale de la dernière unité produite persiste, ce prix reste au-dessus (potentiellement bien au-dessus) du coût marginal de production. Ceci peut d’ailleurs être une nécessité pour couvrir des coûts fixes importants liés par exemple à l’innovation. C’est donc particulièrement le cas de productions liées à la propriété intellectuelle des innovations. Comme les utilités marginales, subjectives et individuelles, n’ont aucune raison d’être mesurables (à part par inférence à partir des décisions de consommation), il est compliqué si ce n’est impossible de déterminer théoriquement et encore moins administrativement le juste prix d’un maillon de la chaîne de production.

[retour ; haut de page]

Le Capital et son singe, critique théâtrale par un économiste

14 octobre 2014

Encore si jeune, ce blog inaugure une nouvelle rubrique, celle de la critique théâtrale. Et pour cause. Quand le théâtre se mêle d’économie, les économistes doivent se mêler de théâtre. Je suis récemment allé voir la pièce « Le Capital et son singe » au théâtre de la colline à Paris. Tout d’abord, je tiens à préciser que j’ai beaucoup aimé, et je vais tenter de vous dire pourquoi, en espérant que cela vous donne l’envie d’aller voir cette pièce. Fidèle à la réputation des économistes, qui arrivent après la bataille, qui expliquent après coup pourquoi il y a eu crise, je fais cette critique alors que la troupe vient de donner sa dernière représentation au théâtre de la colline. Mais j’espère qu’elle continuera ailleurs, et que vous aurez l’occasion de la voir. Avant de commenter le cours d’économie marxiste prodigué par cette pièce, il faut bien se rendre compte qu’il n’est qu’une petite partie de l’intérêt de celle-ci : c’est aussi une pièce sur la politique et la stratégie révolutionnaire, ainsi que sur l’histoire bien évidemment ; et c’est avant tout une pièce de théâtre, une fiction.

Avant tout du théâtre

Les trois heures que durent cette pièce, et qui passent si vite, apportent par touches des informations politiques, historiques et économiques, dans un cadre de fiction qui permet la fluidité des thèses. C’est un mélange d’improvisation, de burlesque et de poésie surréaliste. La mise en scène est simple et épurée. Dans un décor minimaliste - des tables, des chaises et ça et là les accessoires qui seront à un moment ou à un autre utiles à la narration – les acteurs ont un jeu simple et efficace, suffisamment joué pour faire entrer le spectateur dans le scène mais suffisamment direct pour surtout mettre en valeur le texte. Car c’est avant tout un jeu sur les textes, sur les mots, sur les idées. Les effets de scène, rares mais utiles, ont clairement pour but de service ce texte. N’en déplaise à ma belle-mère, le texte n’est pas ici un alibi à la performativité du jeu des acteurs, il n’est pas has been, il est le centre et le but. On peut cependant regretter que le débit dépasse parfois les capacités acoustiques de la salle dans sa disposition « scène au centre » et que quelques (rares) parties de tirades échappent à nos oreilles pourtant attentives.

Tout comme le texte, les personnages sont riches. Leur caractère très marqué, bien dépeint par touches plus ou moins fines, les rend à la fois drôles et attachants. Chacun est une caricature, et le nombre et la diversité de ces caricatures permettent une grande variété d’interactions, que ce soient des interactions comiques entre les personnages eux-mêmes ou des interactions entre leurs idées permettant implicitement une analyse par le burlesque des stratégies politiques. On peut même noter des continuités de caractères entre les différents personnages joués par les mêmes acteurs en 1848 et en 1919. La pièce est donc une mise en vie d’un texte, grâce à un sens du dialogue mordant : on rit énormément, aussi bien des mots, des situations, que des caractères des personnages auxquels on s’attache de plus en plus au fur et à mesure de la pièce.

Plus historique et politique qu’économique

Sur le fond, deux époques sont dépeintes, avec leurs atmosphères particulières. Après une introduction dont je cherche encore l’intérêt, le début de la pièce se passe dans un « club » politique dans l’intervalle entre février et juin 1948, entre l’espoir de la révolution contre la monarchie et le début de la prise de pouvoir par Louis-Napoléon Bonaparte. On y retrouve entre autres Auguste Blanqui, Armand Barbès, François-Vincent Raspail, Louis Blanc et Alexandre Martin dit l’ouvrier Albert et Charles Baudelaire. A travers les débats sur la tactique politique à adopter, on y retrouve l’histoire de cette période du point de vue des socialistes. Après l’enthousiasme de février et la déception des élections de la constituante, les socialistes tentent de reprendre vie en préparant leur stratégie dans ces clubs. On y retrouve tous les grands thèmes des débats internes à la gauche : l’intérêt de collaborer avec une assemblée de républicains modérés, la réalité des solutions à travers la croissance d’un secteur de coopératives, la possibilité de recréer immédiatement un climat de révolte voire révolutionnaire.

En particulier, la mise en scène des débats entre les trois membres de l’assemblée – Armand Barbès, Louis Blanc et l’ouvrier Albert - et les autres paraît intemporelle et tellement caractéristique de la gauche radicale : les premiers veulent croire à la possibilité d’incurver le sens de la politique de l’intérieur de la chambre quand les seconds pensent que cette assemblée ne peut être que le jouet de leurs adversaires et que la solution viendra de la rue. De même est exemplaire le dialogue où Louis Blanc tente de convaincre Firmin, un personnage un peu benêt représentant le bon sens populaire au milieu de cette assemblée d’intellectuels parisiens, de la grandeur et de l’avenir de ses ateliers sociaux pour résoudre progressivement et en douceur les problèmes du capitalisme. A travers son scepticisme naïf plus qu’à travers une véritable analyse de socialiste scientifique, Firmin traduit la critique de Marx et d’Engels contre les socialistes utopiques. Depuis la « misère de la philosophie » du premier et « l’anti-Dühring » du second, on a l’impression que le débat renait sans-cesse sans apprentissage du passé et on se dit qu’on ferait bien de relire ces deux œuvres (et quelques autres) avant de s’enthousiasmer sur l’économie sociale et solidaire.

Le deuxième grand tableau évoque l’Allemagne de Weimar, dans ses débuts, juste après avoir écrasé la révolte spartakiste. On y retrouve la peur d’une société à reconstruire sur les ruines des accords de Versailles et l’espoir de l’annonce du progrès et de la production industrielle de masse. On y parle de voitures pour le peuple et de chaînes de production. On y rit aussi beaucoup devant la description de Paris et des parisiens par une bourgeoise berlinoise.

Surtout, ces deux grands tableaux, comme ne manquera pas de le rappeler le troisième évoquant le procès de Bourges de 1849, suite logique et historique du premier tableau, représentent deux grandes périodes de révoltes socialistes et deux grands échecs de ces révoltes. Mais pas n’importe quels échecs, il s’agit d’échecs provoqués par la répression de la part non des monarchistes, des capitalistes ou des fascistes, mais bel et bien des sociaux-démocrates, une répression démocratique et non moins sanglante. C’est une pièce sur l’hétérogénéité et la fracture à l’intérieur de la gauche, comme il apparaît à la fois d’un point de vue d’ensemble dans les deux périodes représentées et leurs fins tragiques et comme il apparaît dans le détail des débats à l’intérieur du club de Blanqui et du salon berlinois.

L’analyse économique de Marx

Et donc, au milieu de cette fresque historico-politique, la troupe a introduit un cours d’économie marxiste. C’est d’abord le personnage de Firmin qui sert de sujet au cours donné par l’ouvrier Albert et par Armand Barbès. Dans une première scène, ils exposent la théorie de la valeur travail incorporée. Plus tard, ils exposent la théorie de la plus-value et de l’exploitation, avec la mention que l’exploitation ne consiste pas à payer des salaires « anormalement » bas, mais bien que la « juste » valeur de la force de travail dans une société capitaliste conduit de fait à l’exploitation de l’ouvrier par le capitaliste car sa force de travail est considérée comme une marchandise, et payée au juste prix de cette marchandise (pour plus de détails, voir mon cours d’histoire de la pensée économique, chapitre 4). Ces deux cours sont parfaitement mis en scène, à la fois clairs et didactiques et intégrés de manière très fluide dans la narration globale. Les dialogues sont incisifs, les scènes sont drôles et les cours sont limpides.

J’ai toutefois deux regrets quant à cet enseignement d’économie, un manque et un trop plein. Le manque se situe en Allemagne, dans la scène sur le fordisme, quand l’ouvrier de l’usine d’automobile discute avec la famille de son patron des progrès productifs du travail à la chaîne. On y parle alors division du travail, et on évoque de loin l’aliénation. Mais on n’entend parler que de division sociale du travail et non de division manufacturière. Or, la différence n’est pas anodine. D'abord parce que la chaîne de montage dont on parle est l'aboutissement de la division manufacturière et non de la division sociale, mais surtout parce que Marx a fortement insisté sur cette différence en critiquant Smith pour sa confusion des deux sortes de divisions : la division sociale partage la production de produits finis - de marchandises échangeables, les fameux échanges entre le boulanger et le cordonnier de Smith - entre divers membres de la société qui sont in fine propriétaires de la marchandise qu’ils échangent et dont l’intermédiation se fait librement sur le marché ; la division manufacturière, quant à elle, divise de manière hiérarchique les tâches productives entre différents travailleurs vendant leur force de travail à l’organisateur de la production mais n’étant jamais propriétaires d’aucune marchandise échangeable hormis leur propre force de travail (pour plus de détails voir le chapitre 2 de ce même cours d’histoire de la pensée économique, la partie II.2.b sur la division du travail). Au plus, cela aurait pu être le prétexte d’un cours sur la différence entre les deux sortes de division du travail, au moins il aurait été souhaitable de ne pas faire la confusion.

Le deuxième regret concerne le troisième et dernier enseignement, bien moins limpide, inclus bien plus artificiellement dans la narration, et d’une utilité bien moins évidente. On comprend difficilement de quoi il est question : de commensurabilité, dont on parle beaucoup, ou du caractère fétiche de la marchandise, dont on ne parle que tardivement et brièvement. L’épisode sur la commensurabilité parait assez étonnant placé ici en fin de spectacle, puisque Marx fait cet exercice systématique de compréhension de la commensurabilité dans le but de pouvoir justifier la théorie de la valeur travail. Si deux choses qui n’ont a priori rien de commun sont commensurables, c’est qu’en fait elles doivent avoir une propriété commune qui sert de pivot à leur estimation relative. En l’occurrence, la seule caractéristique commune de deux marchandises, c’est d’être le fruit du travail, c’est donc ce travail qui doit être la source de la valeur. Mais comme le cours sur la valeur travail a déjà été donné deux heures plus tôt, celui-ci tombe un peu à plat. En réalité, il sert à introduire un court passage sur le caractère fétiche de la marchandise, qui cache les rapports sociaux violents que nécessite sa production, lui-même servant à amener vers un dernier dialogue sur le retournement de la relation entre le consommateur et la marchandise, qui semble être en fait le véritable objectif de cette digression. Ce dernier dialogue est quant à lui très drôle et bien mené à nouveau et permet donc de conclure la pièce comme on a passé la très grande partie des trois heures précédentes, à rire en réfléchissant, si ce n’est l’inverse.

[retour ; haut de page]

Manifeste pour l'analyse néoclassique en sciences sociales

jeudi 11 septembre 2014

En ce début d’année, alors que les cours reprennent, je me tiens prêt à expliquer l’intérêt et les apports autant théoriques que pratiques de l’analyse néoclassique à des étudiants parmi lesquels certains n’y voient qu’un discours idéologique quand d’autres y voient une vérité intemporelle. Evidemment, ce n’est ni l’un ni l’autre. Il y a quelques années de cela, j’avais écrit un article paru sur le journal du MAUSS à ce sujet. Je vais m’efforcer de synthétiser ici ma pensée. L’analyse néoclassique n’est pas intrinsèquement une discipline idéologiquement normative, mais des économistes en tant que personnes – et bien plus encore des non économistes – au mieux interprètent, au pire déforment les résultats autour de leurs propres valeurs ou intérêts, camouflant le subterfuge sous un discours prétendument objectif et scientifique. Ces mêmes idéologues pensent ou disent qu’elle constitue une vérité complète et intemporelle. En réalité, l’analyse économique néoclassique positive, consciente de ses limites et du caractère social et non naturel de ce qu’elle décrit, n’est qu’une partie, mais une partie nécessaire, des sciences humaines et sociales.

Principe de la modélisation

Il serait illusoire d’espérer qu’une science couvre à la fois tous les niveaux de compréhension des comportements et interactions humaines. Plus particulièrement, l’analyse économique ne peut pas reposer sur une théorie unique de l’action sociale et économique, l’homme est trop complexe pour être intégralement compris par lui-même en une unique modélisation. Mais c’est justement le principe de la modélisation que de chercher à saisir la cohérence au milieu du chaos. Pour ce faire, on simplifie le problème. On met de côté un grand nombre de questions et on se focalise sur un petit nombre pour bien en comprendre toutes les conséquences. On met en place un monde imaginaire ultra-simplifié, centré autour de l’objet d’étude, qui permet de penser des mécanismes, des liens entre des hypothèses et des conclusions. Le principe général est celui de l’induction, du « si… alors ». Le problème est que plus on veut comprendre un mécanisme spécifique dans sa complexité, plus on doit simplifier le reste. Si on veut embrasser le monde entier d’un coup, nos limites cognitives nous forceront à ne le comprendre que très imparfaitement. Il existe en fait une sorte de principe d’incertitude de la modélisation, opposant la précision et la généralité.

Pour ce qui est de l’analyse néoclassique, de nombreuses définitions ont été données. Une de plus que je pourrais proposer est qu’elle analyse les conséquences des comportements individuels rationnels sur les fonctionnements économiques globaux dans le cadre d’une société capitaliste. On voit clairement une des principales simplifications : on s’intéresse au caractère calculateur de l’homme et on délaisse les déterminants sociaux de ses interactions. Est-ce à dire que quiconque s’intéresse à l’analyse néoclassique nie totalement la possibilité d’interactions sociales non gouvernées par l’intérêt ? Ou défend que l’homme est intégralement rationnel ? Bien entendu non, ce serait confondre l’hypothèse et la conclusion dans le raisonnement scientifique, ou croire qu’une hypothèse, pour être valable, doit forcément être entièrement et toujours vraie. L’analyse néoclassique ne dit pas que l’homme est totalement rationnel mais cherche à déterminer les conséquences en termes économiques de la part de son comportement guidée par sa rationalité. S’il était totalement irrationnel, une telle analyse serait parfaitement inintéressante. Comme l’homme n’est pas uniquement rationnel, l’analyse néoclassique ne dit pas tout. Mais comme l’homme est, j’en suis persuadé, au moins en partie rationnel, elle révèle des mécanismes pertinents et permet de les comprendre, voire d’en anticiper certains.

Où se trouve réellement l’idéologie ?

C’est le non-respect de ce principe de modélisation – étudier précisément un mécanisme en simplifiant fortement le reste - qui permet l’utilisation d’une théorie à des fins idéologiques, souvent par le mépris du caractère partiel de l’analyse, par l’oubli du « si » ou par une sur-interprétation du « alors ». Oublier le « si », c’est entre autres oublier que l’homme n’est pas que rationnel, c’est également oublier que les mécanismes décrits ne sont pas universels mais liés à un type précis de société. Cependant, tant que l’on reste dans cette société capitaliste, les résultats néoclassiques révèlent d’importants mécanismes : l’étude d’une société fortement concurrentielle comme l’est la société de production capitaliste justifie l’hypothèse d’homo œconomicus.

Pour autant, les défenseurs de la théorie de la performativité avancent que c’est la science économique néoclassique qui est responsable de ce monde concurrentiel, elle pousserait l’homme à se comporter comme un homo œconomicus. Certes, il existe bien souvent un effet réciproque d’une science sur son objet d’étude, et ce d’autant plus quand il s’agit d’une science sociale avec prétentions normatives. On peut d’ailleurs effectivement trouver des exemples d’une telle performativité de l’analyse économique dans des cas bien précis et limités. Pour autant, ce serait donner bien trop de poids aux économistes que de croire que c’est par leur seule pensée qu’ils ont fait se réaliser cet univers concurrentiel. Il n’y a qu’à lire les pionniers des premières constitutions françaises et américaines au XVIIIème siècle pour être persuadé que la construction de cette société de production capitaliste basée sur l’individualisme et les interactions médiées par les marchés n’a pas attendu la modélisation de l’homo-œconomicus (et a même été réalisée grâce à des hommes rationnels très conscients de leurs intérêts).

Parallèlement, on trouve aussi beaucoup d’idéologie dans l’interprétation de la conclusion. Il est en effet compréhensible qu’un auteur tente de réinterpréter les résultats au regard de ses valeurs. Mais cela conduit bien souvent à des confusions et des sur-interprétations. Un des meilleurs exemples est le fameux théorème du bien-être. Outre le périmètre de validité qui est bien souvent élargi à tort, ce théorème ne dit ni plus ni moins que si toutes les hypothèses sont respectées, l’équilibre de marché constitue une allocation des facteurs et des produits vérifiant le critère de Pareto, ce qui ne veut absolument pas dire que cette situation soit souhaitable. Le passage « d’optimum de Pareto » à « situation souhaitable pour la société » réside bien souvent dans une méconnaissance profonde du concept d’optimum de Pareto, et s’avère probablement très utile à certaines idéologies. Il n’en demeure pas moins que le théorème du bien-être ne dit absolument pas que la situation émanant de la libre concurrence est la situation économique socialement souhaitable.

Par ailleurs, la médiatisation des résultats nécessite une forme de vulgarisation, de simplification, qui peut également être le creuset d’un discours idéologique. Par exemple, ce document de travail tente de regarder la distribution de l’impact des baisses de prix grâce au commerce international. Il trouve qu’en moyenne les prix des paniers de consommation des ménages modestes sont plus impactés à la baisse que ceux des plus aisés. C’est une étude très intéressante qui donne des informations originales sur un pan peu exploité jusque-là, l’hétérogénéité de l’impact du commerce international sur le pouvoir d’achat à revenu constant. Un point évidemment essentiel pour l’interpréter dans un cadre plus large est de bien se souvenir que c’est « à revenu constant » et le commerce international peut évidemment par ailleurs modifier les revenus des différents ménages, également de manière hétérogène, mais pas avec les mêmes gagnants. Cela n’enlève rien à l’apport de l’étude, si tant est qu’on reste conscient de ses limites d’application. Or, ce document de travail a fait le buzz sur twitter via une promotion par le message suivant : « trade typically favors the poor, who concentrate spending in more traded sectors », certes la fin de la phrase place le contexte, mais le caractère péremptoire du début est trompeur, voire manipulateur.

Des querelles théoriques inintéressantes, quoique...

Etant données ces spécificités de la modélisation, on comprend aisément que bien des discussions entre différents chercheurs en sciences sociales consistent en des critiques des hypothèses de modélisation. Ces critiques peuvent être très utiles, mais elles sont malheureusement souvent stériles, consistant juste en une tentative de délégitimation de toute une théorie sur la base de la non-universalité de ses hypothèses. Comme dit plus haut, aucune hypothèse n’est vraie tout le temps et en tout lieu, de telles critiques ne peuvent résulter qu’en un arrêt pur et simple de la modélisation, donc de la compréhension de mécanismes généraux au milieu du chaos. Des critiques plus utiles ne chercheraient pas à exhiber un exemple dans lequel l’hypothèse est fausse, mais d’en bien comprendre les limites pour déterminer les périmètres d’application des résultats. C’est là notamment que les sciences sociales se doivent d’être empiriques et de solliciter tous les outils disponibles - études de terrain qualitatives, analyses statistiques de situations passées ou expérimentations – afin de tester et comparer l’importance et la prévalence des différents effets mis au jour par les différentes théories.

Dans une telle démarche, l’interdisciplinarité trouve toute sa place. Mais l’interdisciplinarité ne consiste pas forcément à faire une analyse « mixte ». Si chacune des disciplines a simplifié certains mécanismes pour mieux en comprendre d’autres, c’est souvent qu’il n’était pas possible de tout modéliser en même temps. Toutefois, il est très enrichissant que des chercheurs de disciplines différentes, étudiant le même objet sous des angles différents, échangent pour se révéler réciproquement les facettes que les uns étudient et que les autres ignorent. C’est ce que nous faisons régulièrement au sein de l’axe "politiques socio-fiscales", qui comprend des économistes (néoclassiques et keynésiens), des politistes et des sociologues. C’est également ce que nous avons fait avec ma collègue sociologue Nathalie Morel en réunissant des contributions d’économistes, juristes, politistes et sociologues de différents pays pour présenter sous toutes ses coutures la stratégie européenne de développement des services à la personne. Je reparlerai bientôt de cet ouvrage, quand il sera sorti.

[retour ; haut de page]

Dividendes record ou l’utilisation des chiffres sans les comprendre

24 août 2014

Depuis quelques jours et la publication par HGI de son index sur les versements mondiaux de dividendes au second trimestre 2014 par les plus grandes entreprises cotées, quel homme politique (de gauche) n’a pas tweeté l’information en faisait le lien avec le pacte de responsabilité voire en insinuant que c’est le CICE qui est reversé aux actionnaires ? De nombreux journaux ont relayé l’information et libération en a même fait sa une - « dividendes, l’indécence » - et consacré ses pages 2 à 5 à ce sujet le 20 août. A chaque fois, des chiffres bruts sont donnés, nombre de points d’exclamations sont utilisés, mais l’explication reste pour le moins superficielle. Chacun préfère prétendre que cela constitue la preuve qu’il avait bien raison et qu’il nous l’avait bien dit. J’ai pour ma part critiqué la TVA sociale et le CICE (ici puis ici) et plus globalement de la stratégie française de baisse du coût du travail peu qualifié (ici). Je ne manque pas non plus une occasion de rappeler les principes de l’incidence fiscale (ou de l’incidence des allocations) : les payeurs finaux (où les bénéficiaires finaux) ne sont pas ceux décidés par le législateur mais les coûts (et les bénéfices) sont en fait redistribués sur les différents marchés. Pour autant, les informations révélées sur les dividendes ne sont absolument pas suffisantes pour pouvoir les utiliser ne serait-ce comme illustration de tout cela, et une étude à peine plus approfondie montre encore une fois comment on peut facilement faire mentir des chiffres quand personne ne cherche réellement à les comprendre.

Présentation des chiffres

Quels chiffres ont été donnés et commentés ? Au second trimestre 2014, les plus grosses entreprises cotées ont augmenté leurs versements de dividendes par rapport au second trimestre 2013. La plus grande hausse a eu lieu en France (+30%) et la France détient aussi la palme en niveau (40,7 milliards de dollars) si on se restreint à l’Europe (y compris UK). Plus globalement, l’augmentation en Europe (hors UK) est plus forte qu’aux Etats-Unis et au Royaume-Uni. Les pays émergents, pourtant en plus grande croissance que l’Europe, connaissent une diminution. Enfin, ce sont avant tout les grands groupes financiers qui ont guidé cette augmentation. Je ne prétends pas pouvoir comprendre et expliquer intégralement ces chiffres quelques jours seulement après leur parution, mais je peux rapidement donner quelques éléments qui montrent que l’interprétation qui a buzzé est probablement fausse.

Un premier point rapide de mise en perspective : le PIB français était de l’ordre de 2054 milliards d’euros en 2013, soit 2728 milliards de dollars au moment où j’écris (ça ne devrait pas varier énormément pour 2014). En prenant « à la louche » un taux de 10% de reconstitution du capital et un rapport deux tiers/un tiers entre les revenus du travail et du capital, on trouve des revenus du capital de l’ordre de 800 milliards de dollars annuels. Les dividendes dont on parle représentent donc moins de 5% de la rémunération annuelle du capital en France. Les +30% - en valeur absolu de l’ordre de 9 milliards de dollars - n’en représentent quant à eux qu’à peine plus d’un pourcent. Il suffit donc qu’un pourcent de cette rémunération annuelle soit déplacé d’autres formes à du dividende des grands groupes, ou reporté des trois autres trimestres sur le second, pour générer ces résultats.

Grande variabilité des dividendes et de leur période de versement

Pour se faire une idée un peu moins floue, il faut aller voir le rapport de HGI dont sont tirés les chiffres, ainsi que les deux rapports précédents, donnant les chiffres équivalents pour le premier semestre et les années complètes précédentes. Le premier constat frappant est celui d’une grande variabilité des versements de dividendes. Les différentes régions du monde dépassent régulièrement les +100% et les -100% quand on compare les mêmes trimestres d’une année sur l’autre. Cela relativise singulièrement le +30% français, surtout après deux années de baisse ou stagnation : les dividendes français du second trimestre 2014 restent de près de 12% inférieurs à ceux du second trimestre 2011, alors que par exemple l’Allemagne a dépassé son chiffre de 2011 et plus crû que la France depuis 2009 ; les Etats-Unis, le Royaume-Uni et la plupart des pays émergents ont connu une croissance continue depuis 2009, en moyenne bien plus forte que la France.

De plus, si on compare les premiers et deuxièmes trimestres des six dernières années, on s’aperçoit que les grands groupes français ne versent quasiment rien au premier trimestre quand les britanniques versent environ la moitié de ce qu’ils versent au second et les américains environ le même montant au premier et second trimestres. Les Etats-Unis versent moins du quart de leurs dividendes annuels au second trimestre et le Royaume-Uni environ le tiers quand la France verse plus de la moitié. Cela relativise encore le fait que la France « batte » le Royaume-Uni au second trimestre. Si on additionne les deux premiers trimestres de 2014 (ce qui, pour les années précédentes, représentait nettement moins de la moitié des dividendes annuels pour les Etats-Unis, sensiblement moins pour le Royaume-Uni et près des trois-quarts pour la France), les grands groupes français ont versé 43 milliards de dollars, les britanniques 81,8 et des américains 177,9 (sachant que la Grande-Bretagne a un PIB inférieur à la France et les Etats-Unis six fois supérieur). Le titre de « champion du monde des dividendes » décerné à la France semble donc être assez artificiel.

Il n’en reste pas moins que les dividendes des grands groupes mondiaux continuent leur augmentation par rapport à la première année prise en compte dans ces rapports de l’HGI. Ce rattrapage est-il trop rapide ? Trop lent ? Le niveau lui-même (depuis bien avant 2009) est-il trop élevé ? Ces questions sont pertinentes mais aucun chiffre présenté ces derniers jours, pas plus que ceux que j’ai pu trouver dans les rapports d’HGI, ne donnent d’indication sur ces questions. Tout ce que l’on peut dire en données annuelles, c’est que la croissance des dividendes des grands groupes depuis 2009 a été très nettement inférieure en Europe (hors UK) qu’ailleurs (y compris les émergents) et qu’à l’intérieur de l’Europe, les dividendes ont stagné pour la France depuis 2009 (à part une forte hausse en 2011 et une hausse probable à venir en 2014) alors qu’ils ont augmenté dans la plupart des autres pays, y compris en Allemagne (tout en restant inférieurs à la France).

Les profits des financières à l’étranger

Un autre point important, qui a d’ailleurs été soulevé par Libération, est que la hausse (et le montant) des dividendes des grands groupes français au second trimestre est quasi-exclusivement porté par des groupes financiers (banques et assurances) dont les profits permettant les dividendes ont principalement été réalisés à l’étranger. Il est sûr que de ce point de vue-là, le lien avec le CICE semble se distendre particulièrement. Cela n’empêche évidemment pas de s’interroger sur ces profits et ces dividendes : il y a sûrement beaucoup à dire et à débattre, dont des choses intéressantes, mais le raccourci avec les politiques actuelles est pour le moins artificiel. Pour ne pas tomber dans des erreurs de simplicité, je ne ferai pas cette analyse que j’espère lire prochainement de la plume d’économistes ou de journalistes plus compétent que moi sur ce sujet, mais je me permettrai tout de même deux petites réflexions, ou plutôt deux petites questions pour indiquer dans quelles directions j’aimerai être informé sur ces sujets.

Pour ce qui est du fait que les financières françaises se portent bien et font des profits conséquents à l’étranger, il est intéressant de savoir de quelle manière. L’argument classique des méchantes entreprises financières qui spolient les gentilles entreprises industrielles se verrait ici dans un cadre international, avec les françaises spoliatrices et les étrangères spoliées. Ceci pourrait être une des raisons pour lesquelles la France « supporte » relativement bien son déficit commercial : il est financé par ses avoirs étrangers. C’est évidemment une caricature simpliste, mais il y a partiellement du vrai. La France peut consommer plus de biens des pays émergents qu’elle n’en exporte parce qu’elle a des revenus (financiers) lui provenant de l’étranger (probablement partiellement tirés des chiffres d’affaires des entreprises qui vendent en France et constituent le déficit commercial français).

Bien sûr, ceci est une vue agrégée et ceux qui bénéficient des dividendes des financières ne sont pas ceux qui cherchent un emploi en France. On pourrait défendre alors qu’il faut rapatrier ces investissements étrangers pour produire plus en France et importer moins. Au niveau des ménages, les effets seraient loin d’être évidents ni homogènes en termes de perdants et de gagnants (qu’on retrouverait probablement à l’intérieur même de chaque groupe social) car si ce sont certainement les travailleurs les moins qualifiés qui pâtissent le plus de la concurrence étrangère, ce sont aussi eux qui en bénéficient le plus en termes de hausse de pouvoir d’achat via la consommation de produits bon marché (comme le montre un récent document de travail du NBER). Cette question mérite certainement plus d’investigation, à commencer par une revue de la (riche) littérature.

Distribuer aux actionnaires ou réinvestir ?

Enfin, une des questions importantes concerne l’utilisation des bénéfices des sociétés. Ceux-ci peuvent être diminués en augmentant les salaires, réinvestis en vue de création de valeur future ou distribués aux actionnaires. Encore une fois, le débat est certainement plus complexe qu’il n’y parait. Si je pense que le manque de fonds propres (et donc de marges) est loin d’être l’unique raison du manque d’investissement des entreprises françaises - surtout depuis la lecture du convainquant article de Kremp et Sevestre sur la faiblesse des contraintes de crédit des entreprises françaises pendant la crise (la version document de travail est en libre accès ici) - je pense que cette importante distribution de dividendes n’est qu’indirectement liée à ces problèmes. N’oublions pas qu’il s’agit d’entreprises financières et regardons dans quoi elles auraient pu investir. Probablement pas massivement en capital matériel ou en plus de recherche et développement : je doute que les commentateurs des chiffres d’HGI avaient en vue plus d’investissement dans le High Frequency trading ou l’invention de nouveaux produits exotiques complexes. Il se serait agi d’investir dans la production à travers le financement d’entreprises industrielles.

On en revient alors à la question essentielle : est-ce que la raison du sous-investissement des entreprises industrielles vient du fait qu’elles n’arrivent pas à se financer car les financières préfèrent verser des dividendes à leurs actionnaires, ou est-ce que le financement est si faible (et peut-être le cash des financières si important) parce que les industrielles sont frileuses à investir. Concernant les PME françaises indépendantes, l’article cité plus haut (Kremp et Sevestre) semble indiquer que c’est plus un manque de demande de crédit des entreprises qu’un rationnement de l’offre de crédit qui a causé la chute de l’investissement pendant la crise. Si la décision des financières de réinvestir ou de distribuer joue certainement un rôle, comme joue aussi un rôle le niveau de fonds propres des industrielles, il semble qu’une grande partie du manque d’investissement des entreprises françaises vienne d’ailleurs. Etudier en profondeur cette question (ou parler de ceux qui le font) est certainement plus utile que rabâcher des poncifs sur le manque de marges des entreprises industrielles ou la rapacité des entreprises financières.

[retour ; haut de page]

Enseignement : compréhension des mécanismes ou injonction normative ?

27 juillet 2014

En tant qu’enseignant, je cherche à expliquer et faire comprendre les raisonnements, les liens entre les hypothèses et les résultats. J’insiste sur le fait que les hypothèses ne sont jamais totalement vérifiées et que les résultats ne sont donc pas à prendre au pied de la lettre. Ce ne sont pas des vérités éternelles mais plutôt des tendances plus ou moins fortes selon la pertinence des hypothèses, dans le cadre de chaque situation considérée. Ceci doit conduire non seulement à ne pas idolâtrer un modèle et relativiser ses résultats, mais inversement à ne pas rejeter complètement tout résultat de modèle dont on ne serait pas pleinement et intégralement d’accord avec les hypothèses, des mécanismes intéressants peuvent en être inférés.

Je ne prétends pas que ce message est toujours totalement saisi mais j’espère qu’il est au moins partiellement compris. De ce point de vue, j’ai assisté le mois dernier à la présentation d’un article qui pourrait être démoralisant. Lors des 13èmes journées d’économie publique « Louis-André Gérard-Varet » à Aix-en-Provence, Douglas Bernheim de l’université Stanford en Californie a présenté une étude portant sur les modifications de comportement suite à un cours de base de finance. Une large littérature existe sur les connaissances en matière de finances et les choix d’investissement et de consommation. L’idée principale que sous-tend cette littérature est que les individus ne sont pas capables de se rendre compte réellement des gains de l’épargne et de ce fait n’épargnent pas assez. Quand ils reçoivent l’enseignement adéquat, ils corrigent leurs choix à la hausse, épargnent plus et s’en trouvent plus heureux.

En particulier, un des points centraux de ce courant de « l’illettrisme financier » est que les individus ne comprennent pas l’intérêt composé : lorsqu’on place 100 euros à 10% par an sans jamais rien retirer, l’avoir total n’est pas de 200 euros au bout de 10 ans mais d’un peu plus de 259 euros (soit un revenu de près de 160 euros et non de 100 euros). En effet, l’avoir après un an est de 110 euros (100 de capital initial et 10 d’intérêts). Les intérêts de la seconde année sont donc 10% de 110 soit 11 euros et l’avoir après deux ans de 121 euros (et non 120). Les intérêts de la troisième année sont donc 10% de 121 soit 12,1 euros et l’avoir après deux ans de 133,1 euros (et non 130). Après plusieurs années, l’écart peut être important si on ne pense pas au caractère composé des intérêts (il ne faut pas oublier les intérêts sur les intérêts). L’hypothèse centrale de cette littérature est que les individus, du fait de leur illettrisme financier, sous-évaluent les gains de l’épargne et épargnent moins qu’ils ne souhaiteraient eux-mêmes (s’ils savaient réellement combien cela leur rapporterait).

Le protocole expérimental

Douglas Bernheim et ses coauteurs ont donc mis en place un protocole expérimental pour tester cette hypothèse. Ils ont ouvert un questionnaire sur internet où des individus pouvaient répondre à un certain nombre de questions pour gagner de l’argent. Les gains monétaires servaient à motiver les participants en créant un enjeu vénal réel. Ils devaient répondre à des questions de deux sortes impliquant leurs gains finaux. Le premier type de questions consistait à leur demander de choisir entre une somme d’argent payable immédiatement et une somme (supérieure) payable 36 ou 72 jours plus tard. Cela consiste en une forme d’épargne dont les gains sont totalement transparents (question sans calcul) et sert à étalonner les préférences des individus en termes d’épargne (être payé immédiatement ou davantage mais à distance). Le second type de questions consistait à choisir entre une somme immédiatement payée ou le paiement 36 ou 72 jours plus tard du résultat du placement de cette somme à un taux d’intérêt journalier donné (question avec calcul). Le questionnaire contenait suffisamment de questions pour que les individus ne fassent pas de liens directs entre les questions équivalentes des deux types. La comparaison des réponses aux questions équivalentes des deux types permet de mesurer « l’erreur » d’épargne du fait du fait de mauvais calculs des gains réels.

Les résultats de ces erreurs d’épargne sont comparés pour quatre groupes de cobayes. Les expérimentateurs ont utilisé le module vidéo du manuel de principes de finances le plus courant dans les premiers cycles universitaires américains. Un premier groupe de cobayes (groupe de contrôle, A) s’est vu diffuser en vidéo un chapitre sans rapport avec les questions de taux d’intérêts. Un second groupe (groupe de traitement classique, B) a visionné le chapitre sur le principe de l’intérêt composé. Ce chapitre des principes de finances a ensuite été coupé en deux parties. Un groupe a visionné uniquement le corps du chapitre ne comportant que l’explication du mécanisme et une méthode de calcul simplifié, à savoir la méthode des 72 (groupe de traitement mécanisme, C). Enfin, les derniers cobayes n’ont regardé que l’introduction et la conclusion du chapitre sur l’intérêt composé, comportant des injonctions normatives sur la puissance de l’intérêt composé et la sous-épargne habituelle des individus qui le négligent (groupe de traitement normatif, D).

La règle des 72 est une méthode simplifiée pour évaluer facilement les gains de l’épargne. Elle consiste à utiliser comme référence le fait qu’un capital placé à X% double au bout de 72/X périodes. Ce n’est qu’une approximation (voir l’annexe pour la démonstration et la précision de cette méthode), mais elle permet de se faire une bonne idée rapidement. Placé à 2% par an, un capital double au bout de 36 ans et quadruple au bout de 72 ; placé à 4%, il double en 18 ans, quadruple en 36 et est multiplié par 8 en 72. On comprend d’ailleurs le lien entre l’explication de cette règle et le fait que les questionnaires donnent le choix entre des sommes d’argent immédiatement ou 36 et 72 jours plus tard (les placements sont effectués avec des taux d’intérêts journaliers).

Les résultats

La présentation des résultats commence par le groupe de contrôle, sans formation particulière. En moyenne, les individus de ce groupe A ont une épargne nettement plus faible pour les questions avec calcul que pour les questions sans calcul. En revanche, les moyennes des épargnes avec et sans calcul pour l’ensemble des individus du groupe B sont très similaires. Ceci conforte les postulats de la littérature sur l’illettrisme financier, à savoir que les individus sous-épargnent en moyenne du fait de difficultés à évaluer correctement les gains de l’épargne mais corrigent leurs actions après avoir suivi un enseignement adéquat. Tout va pour le mieux dans le meilleur des mondes : introduisons des cours de finances de base dans tous les cursus d’enseignement et tout le monde sera plus heureux !

Malheureusement, tout n’est pas si facile, et la théorie de l’illettrisme financier ne tient qu’à un fil. Il ne suffit pas que la moyenne des épargnes effectives soit égale à la moyenne des épargnes souhaitées pour que tout le monde soit heureux. Si la moitié de la population continue à sous-épargner quand l’autre moitié épargne plus qu’elle ne le souhaiterait en réalité, tout le monde est malheureux. Il convient donc de savoir si la diminution de l’écart d’épargne du groupe B par rapport à celle du groupe A a eu lieu grâce à une augmentation uniquement de ceux qui sous-épargnaient ou également de ceux qui épargnaient en accord avec leurs préférences (voire sur-épargnaient). Or, en regardant non pas la moyenne des écarts mais la moyenne des valeurs absolues des écarts (les sur-épargnants ne compensent plus les sous-épargnants en moyenne), il s’avère que la présentation de la vidéo n’améliore pas la situation. La moyenne des distances (valeurs absolues des écarts entre épargne sans calcul et épargne avec calcul) est aussi importante pour le groupe B que pour le groupe A.

Ce résultat est en soit assez décevant, car si la moyenne d’épargne augmente, ce n’est pas du fait de l’augmentation de ceux qui épargnaient moins que ce qu’ils souhaitaient mais aussi du fait de l’augmentation d’épargne de ceux qui épargnaient suffisamment (ou déjà trop) et qui se retrouvent donc en sur-épargne. Il convient de comprendre d’où vient ce résultat, ce qui peut être fait en regardant les groupes C et D, qui ont vu uniquement des parties de la vidéo d’enseignement, les fragments respectivement expliquant les mécanismes ou donnant des injonctions normatives. Il s’avère que les individus du groupe C se comportent comme ceux du groupe A : regarder l’explication des mécanismes, c’est comme voir quelque chose qui n’a aucun lien. A l’inverse, les individus du groupe D se comportent comme ceux du groupe B : les cobayes ayant eu accès à l’ensemble du cours n’ont retenu que la partie normative, sans rapport avec leur situation propre. Cela explique pourquoi le court complet n’améliore pas la situation personnelle des individus même s’il semble améliorer la situation en moyenne : chacun, ne répondant qu’aux injonctions normatives, a augmenté son niveau d’épargne avec calcul, qu’il soit originellement trop bas ou pas.

Conséquences

Conclusion, les cobayes de Bernheim ne modifient pas leur comportement en fonction de la compréhension des mécanismes et de l’adaptation de ces mécanismes à leur cas personnel, ils se contentent de modifier leur comportement en accord avec des injonctions normatives basées sur des résultats moyens, même si cela ne s’applique pas à eux en particulier. D’une part, cela montre la puissance de propagande que constitue l’enseignement, même présenté comme ouvrant l’esprit à la compréhension du monde. Ceci doit probablement être étendu bien au-delà de l’enseignement de l’intérêt composé. Si c’est décevant, ce ne doit pas être décourageant pour autant. On peut déjà se redonner de l’allant en tant qu’enseignant en se disant qu’on est capable de faire mieux en un cycle de cours vivant à des étudiants du supérieur qu’en une vidéo de principe passée à un public très large et hors contexte d’apprentissage ; surtout, cela incite à redoubler d’effort pour expliquer les mécanismes et s’assurer qu’ils sont compris, quitte à les réexpliquer de plusieurs manières différentes. Surtout, cette étude doit être reçue comme un avertissement important de bien faire attention de retirer au maximum toute conclusion un peu trop définitive et normative de nos cours, elle risquerait de le polluer en phagocytant les explications des mécanismes fondamentaux.

Annexe, la règle des 72

Le principe de la règle des 72 est relativement facile à comprendre, il s’agit d’une approximation. Placer un capital C à un taux de r donne un revenu de rC après une période et donc un avoir de (1+r)C. Si rien n’est retiré, c’est (1+r)C qui est placé avant la seconde période, donnant un revenu r(1+r)C et un avoir de (1+r)2C après deux périodes. En continuant le même raisonnement, l’avoir est de (1+r)nC après n périodes. Il s’en suit donc que placé à un taux d’intérêt de r par période, le capital double après un nombre n de périodes tel que (1+r)n=2. En passant au logarithme, on trouve n.ln(1+r)=ln(2) soit n=ln(2)/ln(1+r) et donc n.r=r.ln(2)/ln(1+r). Or ln(2) est assez proche de 69,3%, reste donc à savoir à combien est égal r/ln(1+r). On voit alors si on a une calculatrice que ce produit du nombre de période et du taux d’intérêt est égal à 69,7 pour r=1%, 70,2 pour r=2,5%, 71,0 pour r=5%, 71,9 pour r=7,5%, 72,7 pour r=10%, 73,6 pour r=12,5% et 74,4 pour r=15%. Ainsi, le produit du taux d’intérêt (en %) et du nombre de période varie relativement lentement avec le taux d’intérêt, ce qui permet d’avoir une règle d’approximation unique pour tous les taux d’intérêt. Pour des intérêts plus réalistes actuellement, il semble que la règle devrait être la règle des 70 plutôt que des 72, mais cela fait peu de différence in fine. Pour ceux qui veulent voir la variation de ce ratio avec le taux d’intérêt, ils peuvent se souvenir de leur cours de mathématiques sur les développements limités de ln(1+x) et de 1/(1+y) quand x et y sont petits : n.r≈ln(2)*(1+r/2) à un élément de l’ordre de r² près.

[retour ; haut de page]

Salaire minimum, emploi et manipulation

12 juillet 2014

Depuis plusieurs jours fleurissent sur twitter des messages se réjouissant que les « Les Etats (US) ayant augmenté le salaire minimum ont créé plus d’emploi que les autres ». S’ils sont attaqués, les auteurs pourront se défendre qu’ils n’ont absolument pas dit que la différence avait la moindre significativité statistique, et encore moins que cela reflète un lien causal. Il n’empêche que la formulation vise clairement à faire croire à ce lien causal, ou pour le moins à convaincre que le lien causal opposé (le SMIC tue l’emploi) est faux. Le fait que cette seconde assertion soit loin d’être aussi nette que certains veulent bien le dire et que les défenseurs de la suppression du SMIC emploient souvent des manipulations au moins aussi grotesques ne justifie en rien cette forme de travestissement de la vérité consistant à faire croire qu’on dit (mais sans le dire vraiment) qu’il est prouvé « scientifiquement » que le salaire minimum favorise l’emploi.

Cette différence de création d’emploi existe-t-elle ?

Pour bien comprendre le cas d’espèce, il faut tout d’abord aller un peu plus loin que le tweet et regarder les statistiques à la source de ces messages : il s’agit d’une recension par ThinkPogress d’une étude du Center for Economic and Policy Research (CEPR), avec à l’appui ce graphique censé révéler la vérité. Pour ma part, à la vue de ce graphique, je reste autant indécis pour juger la relation entre salaire minimum et emploi que devant un révélateur de hors-jeu pour juger la validité d’un but. Mouai, peut-être… mais enfin bon… En réalité, en regardant ce graphique, chacun se fera une idée en fonction de l’idée qu’il avait avant de regarder ce graphique. « Alors dirons certain, pour être sûr de son jugement, il ne faut pas regarder l’information brute trop confuse mais construire des indicateurs. Le meilleur indicateur consiste à séparer trois groupes d’Etat : ceux qui ont détruit des emplois, ceux qui en ont créés peu (entre 0 et 1 %) et ceux qui en ont créés beaucoup (plus de 1 %). Ensuite, il suffit de prendre chacune des catégories d’Etats (avec ou sans augmentation du salaire minimum) et regarder sa répartition entre ces trois groupes. Cela donne le graphique suivant, aux résultats indiscutables : les Etats qui ont augmenté le salaire minimum ont connu une plus forte augmentation de l’emploi ».

Mais d’aucuns vont sans doute se plaindre que le choix de l’indicateur n’est pas judicieux, et que « le ventre mou de la création d’emploi, ça créé peut-être des emplois mais ça reste mou. Le ‘vrai’ indicateur est le suivant : un Etat créé ‘vraiment’ des emplois si le taux de croissance est supérieur à 2,5% et il en détruit ‘vraiment’ s’il en détruit plus de 0,5%. Entre les deux, c’est mou et sans intérêt. Par ailleurs, vu la différence de taille de l’échantillon, la bonne méthodologie est la suivante : pour chacun des trois groupes (destruction, mollesse, création), il convient de regarder la part des Etats des deux catégories (avec et sans augmentation du revenu minimum) en proportion de la taille de leurs échantillons. Par exemple, si dans le groupe A, j’ai le quart des Etats de la catégorie 1 et la moitié des Etats de la catégorie 2, alors je dis que ce groupe A est composé au tiers (25%/[25%+50%]) d’Etats de la catégorie 1 et aux deux tiers (50%/[25%+50%]) d’Etats de la catégorie 2. Ceci donne le graphique suivant : Il est donc avéré que le SMIC détruit des emplois. »

Je rappelle avant de continuer que les deux graphiques sont construits avec la même source de données, le graphique initial du CEPR reproduit par ThinkProgress, sans modifier le moindre chiffre. Mais quelle est donc la réalité ? La réalité est que ces deux graphiques sont d’effroyables manipulations et qu’en réalité ces données ne permettent pas de conclure. Une méthode un peu moins manipulatrice consisterait à regarder les deux ensembles d’Etats et calculer si les moyennes de création d’emploi sont statistiquement différentes. Le test usuel dans ce cas est appelé test de Fisher (étant donnée la très forte similitude entre les écarts types des deux sous-groupes) et révèle que la différence entre les deux moyennes n’est pas significative. Une manière de comprendre l’intuition derrière ce résultat non conclusif est de comparer l’écart entre les deux moyennes – en l’occurrence 0,31% – avec l’écart type de ces échantillons – en l’occurrence le même pour les deux : 0,77%. Ceci veut dire que l’écart moyen entre un Etat et la moyenne de sa catégorie est plus de deux fois supérieur à l’écart entre les moyennes des Etats avec et sans augmentation du salaire minimum. Ces graphiques sont peut-être beaux, mais ils ne révèlent rien.

Différence entre causalité et corrélation

Et quand bien même les nombres auraient été différents et l’écart aurait été significatif, qu’est-ce que cela aurait-il bien pu vouloir dire ? Pas grand-chose de plus en réalité. On meurt bien plus souvent dans son lit que dans la rue, est-ce à dire que le lit est bien plus dangereux ? Corrélation n’est pas causalité et il faut bien plus d’éléments pour pouvoir établir une causalité lire ici pour une présentation simple et intuitive mais un peu plus détaillée des méthodes d’évaluations d’impact ). De même, il faut bien plus d’éléments pour pouvoir établir une absence de causalité. Malheureusement, ces données ne prouvent pas plus l’absence d’impact négatif du salaire minimum sur l’emploi. De nombreuses études ont tenté d’estimer cette causalité (avec des résultats différents selon les environnements socio-économiques et les niveaux initiaux de salaire minimum), une revue critique de la littérature peut-être lue ici pour ceux que cela intéresse.

En fait, un moyen de comprendre pourquoi même une différence significative ne signifierait rien consiste à observer les cas de la France et de l’Allemagne. En 2014, l’Allemagne va créer (ou augmenter selon les branches) un salaire minimum pendant que la France a à peine revalorisé le sien du montant de l’inflation, c'est-à-dire pas grand-chose. Quand on regardera les statistiques, on verra que l’Allemagne a plus crû et a créé plus d’emplois que la France en 2014. Pourra-t-on parler de causalité ? De causalité inverse peut-être, car l’Allemagne, qui a connu une croissance bien meilleure que ses voisins ces dernières années, voit le pouvoir d’achat de ses ménages fortement contraints par une modération salariale depuis 2005. L’idée outre-Rhin est justement qu’il est grand temps de partager cette croissance en remontant les rémunérations les plus basses : c’est parce que les perspectives de croissance et d’emploi y sont bonnes que l’Allemagne augmente sensiblement son salaire minimum.

Quoi qu’il en soit, l’objet de ce post n’est pas de savoir quel est l’impact réel du salaire minimum sur l’emploi en France, aux Etats-Unis ou en Allemagne (et encore moins s’il est le même dans ces différents pays ou s’il serait le même en proportion pour une grande ou une petite augmentation). Le but est de rappeler qu’il faut autant se méfier des constats trop simples que du fameux « bon sens ». Je ne dis absolument pas « qu’on peut faire dire n’importe quoi aux chiffres », comme on l’entend malheureusement souvent, parce que je pense que c’est fondamentalement faux. En revanche, je pense que certains profitent que beaucoup de personnes ont une relation conflictuelle avec les chiffres pour leur faire croire que les chiffres prouvent ce qu’en réalité ils ne disent même pas : cela s’appelle mentir.

[retour ; haut de page]

Mieux vaut taxer la rente immobilière que la production

Les Echos, 5 novembre 2013, avec Patrick Artus, Antoine Bozio et Cécilia Garcia-Peñalosa

Dans son rapport sur la fiscalité publié le mois dernier, le Fonds monétaire international suggère aux pays avancés d'utiliser l'imposition de la richesse accumulée, notamment la richesse immobilière, plutôt que les impôts sur la production, pour redresser les finances publiques. La France impose la propriété immobilière via notamment la taxe foncière et l'ISF. Toutefois, vu le très fort taux de prélèvement obligatoire global, on ne peut pas dire que la richesse immobilière soit particulièrement maltraitée par le fisc français. Le travail est beaucoup plus mis à contribution.

Ce constat rejoint celui qu'a fait le Conseil d'analyse économique dans sa note du mois de septembre : les prélèvements obligatoires sur les revenus du capital sont élevés en France en comparaison internationale, non pas parce que la fiscalité française défavorise particulièrement ces revenus - les revenus du travail sont encore plus fortement imposés - mais parce que le niveau global des prélèvements obligatoires est élevé dans notre pays.

Un second constat mettait en évidence la forte hétérogénéité des traitements fiscaux des différents revenus du patrimoine en France, allant de 10 % à 60 % d'imposition selon le type de revenu. La France semble avant tout privilégier les investissements dans l'immobilier (tout particulièrement ceux des propriétaires occupants, moins ceux des propriétaires bailleurs) et les assurances-vie, investies largement en obligations publiques, alors même que les investissements productifs sont lourdement taxés.

On peut bien entendu plaider pour une baisse des dépenses publiques, qui permettrait de réduire la pression fiscale dans sa globalité. Mais même dans l'optique d'une telle baisse, la question de la répartition de la pression fiscale reste posée : faut-il, comme au Royaume-Uni, utiliser largement l'assiette de la propriété immobilière pour équilibrer le budget ? Le FMI répond par l'affirmative à cette question : il vaut mieux taxer la rente immobilière que la production. Les conséquences sur la croissance et l'emploi sont bien plus bénignes. Dans un pays comme la France, où la fiscalité sur le patrimoine immobilier est très hétérogène, cela suggère non pas d'augmenter les taux de prélèvement - les taux normaux sont déjà très élevés - mais plutôt, comme le soutient la note du CAE, d'élargir l'assiette en faisant rentrer dans le droit commun les innombrables exemptions, et en profiter pour abaisser le taux général.

Pourtant, cette proposition se heurte à de nombreuses oppositions, liées en particulier à l'usage du terme « loyers implicites » pour désigner les revenus des propriétaires occupants. Il faut rappeler que les « loyers implicites » sont bien comptabilisés dans le PIB et le revenu national, et ce, dans tous les pays du monde. Surtout, ces revenus font l'objet dans de nombreux pays d'une fiscalité nettement plus forte qu'en France : les Etats-Unis et le Royaume-Uni, par exemple, ont des impôts sur la propriété considérablement plus lourds que la taxe foncière française; la Suisse, autre pays peu réputé pour son anticapitalisme brutal, impose les loyers implicites directement, comme le faisait la France après-guerre sous le général de Gaulle. Dans ces pays, le fait d'imposer au moins aussi fortement la propriété foncière que l'investissement productif semble une évidence.

L'attachement des Français à la pierre se comprend : on peut habiter sa maison, pas un portefeuille d'actions. Mais on ne peut à la fois conforter cette préférence par une fiscalité favorable et s'inquiéter du manque d'investissement productif dans notre pays. La rente ou la vitalité économique, il va falloir choisir.

[retour ; haut de page]

Pourquoi occuper son propre appartement constitue un revenu en nature

Les invités de Médiapart, 1er octobre 2013

Une note récente du Conseil d'analyse économique sur la taxation des revenus du capital a soulevé un grand vent de critiques et d’incompréhensions. La proposition de réduire certaines niches fiscales est apparue comme une nouvelle attaque contre les contribuables, sans que personne ne semble remarquer que réduire les niches permet de diminuer les taux d’imposition. Pour renforcer le sentiment d’incompréhension, certaines dérogations fiscales ne sont pas considérées comme telles par le plus grand nombre.

Dans ce contexte, la proposition des auteurs de raboter des niches a été comprise comme une offensive pour trouver n’importe quelle nouvelle source de recettes fiscales, n’importe quelle « vache à lait » pour combler les déficits. Alors que la proposition de diminuer l’avantage fiscal sur l’assurance-vie – produit certes populaire mais vu intuitivement comme avantagé fiscalement – n’a soulevé que peu de réactions, celle de revenir sur la défiscalisation des loyers dits « imputés » est visiblement mal passée, tout simplement parce que personne ne considère comme un revenu le service de logement dont il bénéficie lorsqu’il occupe un appartement dont il est propriétaire.

Pourtant, le Conseil d’analyse économique n’est pas tombé sur la tête. Les propriétaires-occupants disposent bien d’un avantage fiscal par rapport aux épargnants ayant fait d’autres choix d’investissement, par exemple ceux qui ont investi dans leur entreprise ou ceux qui ont acquis des biens immobiliers pour les louer. Les services de logement que les propriétaires-occupants se livrent à eux-mêmes constituent bel et bien une production et un revenu. C’est d’ailleurs le point de vue de l’Insee et des instituts statistiques des autres pays, qui les comptabilisent dans le PIB. Les loyers imputés ont d’ailleurs été incorporés au revenu imposable de la plupart des pays depuis la mise en place de l’imposition des revenus, et ce n’est que récemment que nombre de pays (dont la France en 1965) ont exclu ces loyers imputés de l’assiette taxable. Certains pays comme la Suisse, connue pour sa rapacité fiscale et son déni de la propriété privée, continuent de les imposer.

En quoi les loyers imputés constituent-ils des revenus ? Reconnaissons que le vocabulaire n’aide pas à le comprendre. Certains parlent de loyers « fictifs », voire de revenu « virtuel ». Or le revenu considéré n’est absolument virtuel, pas plus qu’il n’est fictif. S’il n’est pas monétaire, il n’en est pas moins réel : il ne s’agit pas d’imposer l’usage d’un bien, mais les revenus en nature que constituent les services de logement produits grâce à ce bien.

La consommation annuelle d’un propriétaire-occupant, qui inclut les services de logement, n’entame en rien la valeur de sa richesse immobilière. C’est donc bien qu’il a produit un « revenu » qui compense la valeur des services de logement « consommés » durant l’année, à un écart près correspondant aux dépenses d’entretien qui sont nécessaires pour maintenir la valeur du bien. Une autre manière de raisonner est de décomposer le bien immobilier en deux parties : l’emplacement (le foncier) et le bâti. Si le bâti s’use à mesure que l’on consomme les services de logement, l’emplacement, lui, ne s’use pas : sa valeur n’est absolument pas affectée par le service rendu. Si l’entretien du bâti doit naturellement être défalqué du revenu en nature tiré de l’occupation du logement, le reste constitue bien un revenu qui peut être imposé.

Pourtant, l’imposition de biens ou services que l’on produit soi-même pour son propre usage paraît généralement illégitime, notamment parce qu’elle est perçue comme une intrusion intolérable de l’Etat dans les affaires privées. Un exemple célèbre est le cas des impôts sur les alcools. Lorsque Napoléon Bonaparte demanda à son ministre des finances une réforme complète du système fiscal afin de financer l’effort de guerre, celui-ci compléta le système des quatre « vieilles » (les quatre taxes directes instaurées par les révolutionnaires) en recréant une fiscalité indirecte sur la consommation ciblant tout spécialement les boissons alcoolisées. Or, nombre d’agriculteurs distillaient leur production pour leur propre consommation, et le statut des bouilleurs de cru vint défiscaliser la part produite pour soi-même. Bien que modifié à de nombreuses reprises (suite à de violents débats à l’Assemblée), ce privilège a perduré longtemps ; ce n’est qu’à la fin des années 1950 qu’il fut progressivement supprimé. Le droit perdure pour ceux qui l’avaient mais il n’est plus transmissible aux héritiers.

Pourquoi imposer les loyers imputés et pas d’autres services produits pour soi-même ? La particularité de la détention immobilière vient entre autres de ce que l’Etat peut calculer l’assiette imposable sans s’immiscer dans l’intimité des ménages. La valeur des loyers est une fonction relativement stable de variables observables telles que l'emplacement et la superficie du logement. La valeur locative au mètre carré varie d’ailleurs peu localement, malgré les différences de confort, d'ensoleillement, etc. C’est la preuve qu’il s’agit avant tout d’un droit d’occuper un emplacement, ce qui constitue aujourd’hui la majeure partie du coût du logement.

Lors de la Révolution française, la fiscalité a été réformée pour dépendre des capacités contributives. Sur les quatre taxes crées, trois étaient directement liées à la valeur du logement (foncière, mobilière et sur les portes et fenêtres), représentative des revenus et facilement observable. Ce n’est que pendant la première guerre mondiale que, pour des raisons budgétaires, on est passé à un système d’imposition des revenus effectifs, non sans débats enflammés sur le « voyeurisme » et le « totalitarisme » d’un Etat sommant les ménages de déclarer leurs revenus. L’estimation de la valeur locative des logements, issue de la révolution, a paru pendant longtemps relativement équitable et moins intrusive que l’imposition des revenus.

L’autre particularité des services de logement, parmi l’ensemble des biens et services fournis à soi-même, est qu’ils sont produits à partir d’un facteur très spécifique, qui n’est ni le travail ni le capital physique, mais le droit de propriété sur l’espace. Ce facteur ne se produit pas : il se possède et se transmet. Ainsi, ces services ne sont pas une production capitaliste, mais une production pré-capitaliste. Le XIXe siècle a d'ailleurs été marqué par une lutte entre capitalistes et propriétaires fonciers, dont l'épisode le plus célèbre est sûrement celui des corn laws outre-manche. C'est ainsi que la rente foncière était le seul point de convergence entre ouvriers et capitalistes (contre les propriétaires fonciers). Aujourd’hui, le retour en force de la rente mis au jour par Thomas Piketty passe notamment par l’immobilier.

Il ne s’agit pas de s’acharner sur les propriétaires-occupants, mais de revenir sur un avantage fiscal dont ils bénéficient de facto et qui a des conséquences fâcheuses. Premièrement, cela génère des iniquités de traitement fiscal. Une personne investissant dans de l’immobilier qu’elle habite paiera moins d’impôt qu’une personne investissant autrement (actions d’entreprises ou immobilier locatif) et louant sa propre habitation. Pourtant, ces deux personnes ont la même consommation et le même patrimoine : elles ont la même capacité contributive mais sont imposées différemment.

Deuxièmement, cette hétérogénéité de traitement fait affluer une grande partie de l’épargne vers le marché immobilier. Or, ce marché est fortement contraint en termes d’offre, et la solvabilité supplémentaire de la demande se traduit par des hausses de prix, de la même manière que les dispositifs dérogatoires de type Scellier ou Duflot contribuent à l’inflation immobilière ou que les allocations logements contribuent à l’augmentation des loyers.

Troisièmement, une France de propriétaires-occupants expose les individus à des risques supplémentaires. S’il n’y avait pas tant d’avantages fiscaux à la détention de sa résidence principale, les ouvriers de Florange qui ont investi toutes leurs économies dans leur modeste résidence principale auraient peut-être investi à la place dans des produits d’épargne retraite sûrs et n’auraient pas vu la valeur de leur patrimoine dégringoler en même temps qu’ils perdaient leur emploi.

Par ailleurs, une objection à la taxation des loyers imputés est le fait qu’un revenu en nature ne produit pas la trésorerie pour payer l’impôt. Le problème n’est pas spécifique à cet impôt, mais à toute taxation ne portant pas sur des revenus monétaires, comme l’imposition des stocks de richesse (taxe foncière, impôt sur la fortune). C’est le fameux problème de l’agriculteur rhétais. Mais si les loyers imputés étaient intégrés au barème de l’impôt sur le revenu, une personne ayant peu de ressources hormis son logement verrait ce revenu imposé à un faible taux, correspondant aux premières tranches d’imposition. Compte tenu des charges et frais d’entretien déduits, cela ne constituerait qu’une faible augmentation d’impôt, encore plus faible si les emprunts ne sont pas encore remboursés, les intérêts venant également se déduire du revenu imputé. Sans parler des réductions d’impôts que consentirait vraisemblablement le gouvernement en faveur des propriétaires-occupants les plus modestes.

Bien entendu, un ménage propriétaire d’un logement de très grande valeur paierait plus cher et se trouverait contributeur net de la réforme. Toutefois, un tel propriétaire a généralement les liquidités pour acquitter son impôt. S’il ne l’a pas, la réforme peut l’inciter à mettre son bien (ou une partie de celui-ci) en location, pour le bonheur d’une famille à la recherche d’un logement à louer.

Il faut être conscient qu’il n’est pas possible de rééquilibrer un système fiscal déséquilibré sans induire des gagnants et des perdants. La fiscalité est actuellement déséquilibrée, à l’avantage des propriétaires-occupants et, par un effet direct de vases communicants, au détriment des locataires. Cette pénalité fiscale pour les locataires est ce que la note du CAE considère comme injuste et inefficace. La supprimer induit une perte pour les uns, mais un gain pour les autres.

Une manière alternative de supprimer l’inégalité de traitement entre propriétaires-occupants et propriétaires-bailleurs serait de réévaluer la taxe foncière sur la base de nouvelles valeurs locatives (recalculées annuellement) et, en contrepartie, de détaxer les loyers perçus par les propriétaires-bailleurs. Ainsi, un même bien serait imposé de la même manière selon que son propriétaire occupe le logement, le met en location ou le laisse vacant. Plus simple que l’imposition au barème, cette solution aurait l’inconvénient de traiter de la même manière tous les propriétaires, quels que soient leurs autres revenus.

[retour ; haut de page]

Le bien-être du patient ne se compte pas en dépassement d’honoraires

Les invités de Médiapart, 18 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund

Le projet de loi de finance de la sécurité sociale envisage d’encadrer les dépassements d’honoraires, ce qui n’a pas tardé à réveiller les contestations. Facebook véhicule ainsi le message général, soutenu et développé par de nombreux syndicats. Le projet notamment porté par l’Inter Syndicat National des Internes Hôpitaux (Isnih) de journée de mobilisation ayant pour mot d’ordre: « Journée de mobilisation: le choix de bien soigner » a connu un succès instantané sur la toile. On tente ainsi de nous faire croire qu’encadrer les dépassements d’honoraires aurait pour conséquence directe la dégradation des soins prodigués aux patients, le tout étant très doctement justifié par le fait que la situation « confortable » du médecin est une nécessité pour la sécurité des patients. Or, tout cela n’est pas fait pour le bien du patient, bien au contraire. Comment est-il possible d’avancer qu’un patient est mieux traité par un médecin libéral en secteur 2 avec honoraires libres que par l’hôpital public, ou par un médecin conventionné secteur 1 ? Ce mouvement des « médecins pigeons » – né sous l’impulsion d’un chirurgien esthétique libéral – a bien pour but corporatiste de conserver la rémunération actuelle des médecins libéraux secteurs 2. Une telle revendication pourrait paraître justifiée si, toutefois, elle était faite honnêtement, sans essayer de se cacher derrière une action de santé publique. Cependant, afin de se faire une opinion sur celle-ci, il convient tout d’abord d’en comprendre les tenants et les aboutissants.

La régulation des services médicaux

Les soins médicaux sont une activité régulée dans la plupart des pays, et ce pour plusieurs raisons. D’abord, parce que le prix de marché non régulé serait si élevé que ce serait très cher, trop cher pour beaucoup d’individus et que ceux-ci seraient contraints de renoncer aux soins. Soumettre les soins médicaux au cours de « l’offre et la demande » serait aberrant. Ce serait regrettable d’un point de vue moral, mais également d’un point de vue économique car si les travailleurs ne se soignent pas ils risquent d’être moins productifs et ce sont toutes les autres branches de production qui en pâtiraient. En effet, les soins médicaux génèrent une externalité positive sur le reste de l’économie, ce qui peut suffire, en dehors même des arguments moraux, à justifier une intervention publique. De plus, la consommation de soins est un phénomène risqué, dépendant de survenues aléatoires de pathologies. Ce marché nécessite d’être couvert par des assurances. Or, les marchés des assurances sont des marchés très imparfaits, parmi les plus régulés sur le globe.

Plusieurs formes de régulations des services médicaux sont possibles. Certains pays, comme la Suisse, régulent uniquement les assurances privées en forçant les individus à s’assurer. La rémunération des services médicaux est alors choisie dans un rapport de force entre assureurs et médecins: les assureurs ont plus de poids que les patients individuels pour négocier les prix et contrer l’oligopole des médecins. D’autres, comme l’Angleterre et la Suède, ont fait des soins un service public produit par l’Etat. Les médecins sont alors des salariés fonctionnaires, leur rémunération dépend de négociations salariales entre leurs syndicats et les représentants de leurs employeurs, en l’occurrence l’Etat.

La régulation en France est un mélange des deux: les médecins sont effectivement payés en grande partie par l’Etat, via la sécurité sociale, et leurs rémunérations sont décidées également par l’Etat (du moins en secteur 1), mais ils sont une profession libérale en face des clients directement et non des payeurs: les assurances publiques et privées. La négociation de la rémunération est donc particulière, elle n’est pas celle de client à fournisseur de soins, et pas non plus celle d’employé à employeur. Ainsi, le débat actuel est en réalité celui d’une représentation professionnelle qui demande une augmentation à son employeur, ou qui demande à ne pas être diminuée. On en revient à cet état de fait, bien qu’il soit camouflé par les arguments avancés par le mouvement de revendications. Et pour cause, cette lutte pour une meilleure (ou une aussi bonne) rémunération est difficilement entendue par la majeure partie de la population et ce d’autant plus en période de crise. Ce qui dérange les non médecins, c’est qu’il s’agisse de revendications salariales d’une profession parmi les mieux rémunérées. Il en allait de même pour les grèves de pilotes de lignes et la question reste ouverte d’un point de vue général: comment considérer les revendications salariales des professions qui touchent bien plus que la majorité de leurs concitoyens?

Où s’insère le secteur 2?

Mais cette lutte pour une meilleure rémunération et ses faux arguments ne doivent pas cacher un problème réel de santé publique. La situation des dépassements d’honoraires, directement liée au type de régulation à la française, est problématique. En effet, si le conventionnement était obligatoire, avec une part substantielle du remboursement par la sécurité sociale, le mécanisme serait très proche d’un salariat à la pièce des médecins par l’Etat. Les revendications porteraient uniquement sur les tarifs conventionnés. Mais l’Etat, pour ne pas trop augmenter ses dépenses (et peut-être aussi pour effectuer son désengagement progressif de l’assurance maladie), a tenu fermement les tarifs conventionnés, qui sont aujourd’hui peu élevés (et qui n’ont pas été revalorisés depuis près de vingt-cinq ans). Peu élevés non par rapport à une valeur morale, mais par rapport à la rémunération des médecins dans des pays comparables, ou par rapport à leur évolution comparée à celles des autres professions aussi qualifiées. En échange, pour permettre quand même la hausse des rémunérations, l’Etat a lâché du lest sur les dépassements d’honoraires en encourageant le développement de l’assurance privée (originellement réservée à des assurances mutuelles pour garder un vernis public) pour payer le reste à charge.

Ceci a conduit à une multiplication des secteurs 2, avec dans certaines régions une quasi impossibilité de trouver des médecins secteur 1 dans certaines spécialités. L’assurance privée s’est développée, et avec elle un de ses effets pervers, la non assurance de ceux qui se croient peu sujets au risque, ou de ceux qui trouvent le prix des assurances au-dessus de leurs moyens. Les cotisations de complémentaires santé ont en effet crû au fur et à mesure que les secteurs 2 augmentaient en nombre et en écart au tarif conventionné. On observe ainsi de plus en plus de refus de soins, liés à des incapacités de paiement, notamment en absence de mutuelles.

Une vaste enquête réalisée par l’Institut de recherche et de documentation en économie de la santé (Irdes) en 2008 et portant sur la santé et la protection sociale a tâché d’étudier le phénomène complexe du renoncement aux soins, tout à la fois symptôme et conséquence évidente d’inégalités sociales de santé et d’inégalités d’accès aux soins qui se creusent. Ainsi, dans l’année précédant l’enquête, 16,5 % des 18-64 ans avaient renoncé à des soins médicaux pour des raisons financières, un chiffre que le Conférération des syndicats médicaux français (CSMF) trouve négligeable et balaie d’un revers de manche. On remarque par ailleurs que le renoncement aux soins est trois fois plus important au sein du quintile le plus pauvre (qui est celui dont l’état de santé est le plus mauvais évidemment) que dans celui le plus aisé. Il apparait évident que les dépassements d’honoraires entravent l’accès aux soins bien qu’ils n’en soient évidemment pas les seuls responsables. Le patient aux faibles revenus affilié à la sécurité sociale mais dépourvu de mutuelle (du fait du coût des cotisations) en est la première victime.

Maintenant, plusieurs possibilités semblent s’offrir au gouvernement. Soit il continue à laisser filer l’assurance maladie vers le secteur privé, augmentant les inégalités d’accès aux soins. Soit il tente de remettre l’assurance santé dans le giron quasi exclusif de la sécurité sociale et cela ne peut passer que par deux solutions opposées. D’un côté, une limitation du secteur 2 sans augmentation du tarif conventionné: cela revient de facto à une baisse de rémunération des médecins. Ceux-ci se battent contre cela, non parce que cette baisse est immorale ou injuste, mais parce qu’ils se battent comme tout le monde pour leur rémunération. D’un autre côté, une limitation du secteur 2 en compensant par une augmentation du tarif conventionné : la rémunération des médecins ne changerait pas mais cela aurait évidemment un coût que certains semblent oublier. En effet, c’est le coût de la protection sociale qui augmenterait. Par effet domino, plusieurs possibilités s’offriraient alors aux décideurs: soit augmenter les cotisations sociales, et baisser de fait la rémunération de tous les salariés, dont les plus pauvres, soit augmenter d’autres impôts, et baisser le niveau vie des contribuables choisis.

La rémunération du travail à sa juste valeur

On voit bien ici que l’argument du bien-être du patient pour justifier le droit aux dépassements d’honoraires ne tient pas longtemps à l’analyse, et d’autres arguments sont également avancés, cette fois-ci de nature plus morale. Sont mis en avant les compétences des médecins, leurs efforts, leurs études longues et difficiles, pour justifier qu’ils méritent une rémunération très élevée, et qu’il est donc indigne de la leur contester. Des questions s’imposent immédiatement: qui, dans nos sociétés, est effectivement rémunéré en proportion de son mérite? Et sur quelles bases juge-t-on du mérite des différents travailleurs? Plus généralement, comment valorise-t-on un travail? Dans une société capitaliste, les activités réellement libérales sont valorisées par le marché. La valeur qui en découle n’est pas pour autant juste: la rémunération est égale à ce qu’est prêt à payer le client (1), compte tenu de sa possibilité d’aller voir un autre vendeur ou de ne pas acheter du tout. Ainsi, si le PSG rémunère son attaquant vedette plus de 14 M€ par an, ce n’est pas que cela représente sa valeur intrinsèque, mais parce que Qatar sports investments (QSI) pense qu’à travers notamment sa qualité footballistique et son aura médiatique, il lui rapportera au moins autant en termes directement financiers ou autres, et que s’il le payait moins il irait jouer pour un autre club.

Pour les médecins, le cas est particulier, parce que la profession est particulière. On parle de profession libérale, mais tel n’est pas complètement le cas. Sinon, vu les sommes élevées que les individus qui en ont les moyens (détail important il va de soi) sont prêts à payer afin de préserver leur santé, les prix seraient probablement très élevés s’ils étaient fixés libéralement par le marché. On pourrait alors supposer que cela attirerait nombre de nouveaux médecins, mais la hausse du nombre de médecins resterait limitée même sans l’instauration de numerus clausus: la difficulté des études en question est une raison, et plus généralement les fortes inégalités sociales d'accès aux études universitaire en sont une autre.

Globalement donc, il est probable que le prix non régulé des actes médicaux serait supérieur au prix actuel, y compris avec dépassement d’honoraires. Peut-on pour autant dire que le prix secteur 2 est injustement trop bas, et ne rémunère pas les médecins à leur juste valeur? Ce serait penser que le prix de marché reflète une valeur intrinsèque, voire une valeur morale, et ce serait se tromper. Par ailleurs, étant donné que les systèmes de santé étrangers sont également fermement régulés, notamment en ce qui concerne les conditions d’exercice, l'opportunité d'aller exercer ailleurs qu'en France dans de meilleures conditions est limitée. De plus, la rémunération actuelle, bien qu'inférieure à ce que serait la rémunération de marché, reste élevée, et suffisante pour conserver l’attractivité de la formation médicale.

La question de l’encadrement des prix des actes médicaux est donc complexe et impacte fortement et parallèlement l’accès aux soins des patients et le salaire des médecins qui les soignent. Il apparaît donc indispensable que les praticiens et syndicats refusant l’encadrement de ces dépassements ne trompent ni leurs patients ni le public avec des justifications mensongères de façade et se doivent de reconnaître leur position aisée de « travailleur » cherchant à conserver une confortable rémunération. Reste à savoir alors quelles seront les décisions politiques à l’issue de ces négociations et mesurer par la suite leurs conséquences sur les rémunérations des médecins, sur l’évolution des cotisations aux assurances et sur les inégalités d’accès aux soins.

[retour ; haut de page]

Halte aux «médecins pigeons» qui agitent le drapeau de la santé publique !

Libération, 15 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund

C’est reparti, même refrain, mêmes artifices, mêmes mensonges. Le mouvement des entrepreneurs «pigeons», et sa réussite sur la question de l’imposition des plus-values de cession, fait des émules dans les mouvements de revendications de groupes sociaux aisés, se dénommant eux-mêmes «pigeons». Ce sont désormais les médecins qui s’y mettent, contestant notamment les restrictions aux dépassements d’honoraires, via un contrôle plus strict du secteur 2 de l’assurance maladie.

Déjà en 2007, les syndicats d’internes de médecine et chefs de clinique appelaient avec succès à une grève de grande ampleur. Les internes protestaient alors contre un projet de la loi HPST qui prévoyait de limiter l’accès des médecins libéraux dans les secteurs sur-dotés, au profit de régions moins bien loties. La sanction prévue en cas de non-respect était celle du déconventionnement du médecin : les actes ne pourraient plus être remboursés par la sécurité sociale. Donc nous voilà tous gaiement, manifestant partout en France, aux cris de «Médecins déconventionnés, patients non remboursés !» et autre «On enterre la sécurité sociale !». C’était presque émouvant si on n’y regardait pas d’un peu plus près. Car, en fait, nous manifestions alors pour la liberté d’installation pure et simple.

On peut comprendre après tout que le gouvernement cherche à installer des médecins dans les régions sous-dotées, mais aussi qu’un interne n’ait pas envie de se voir imposer son lieu d’exercice. Mais plutôt qu’être honnêtes, nous revendiquions le fait de manifester «pour le patient, pour préserver la sécurité sociale !». Vaste blague évidemment ! Il s’agissait bien de déconventionner uniquement certains médecins libéraux qui auraient souhaité s’installer dans des régions déjà en surnombre. Les patients n’auraient eu alors qu’à piocher un médecin local conventionné, et rien n’aurait changé. Son «bien» n’était en fait à aucun moment la priorité de ces manifestants. Qui les en blâmerait ? Après tout, il est bien de notre droit de manifester afin de préserver nos acquis, non ? En revanche, se cacher derrière de fausses revendications telles que celle d’avoir à cœur le bien-être du patient - justification certes davantage audible dans l’espace public -, apparaît comme mensonger et, par conséquent, intolérable.

Cinq ans plus tard, nous y revoilà. Le projet de loi de finance de la sécurité sociale envisage d’encadrer les dépassements d’honoraires. Branle-bas de combat et agitation au sein de la corporation. Facebook véhicule le message général, soutenu et développé par de nombreux syndicats. Succès instantané sur la Toile du projet (porté par l’Inter syndicat national des internes des hôpitaux, ISNIH) de journée de mobilisation prévue demain autour du slogan ahurissant : «Journée de mobilisation : le choix de bien soigner». Par un merveilleux tour de magie et un usage pernicieux de la formule, faut-il comprendre dès lors qu’encadrer les dépassements d’honoraires aurait pour conséquence directe la dégradation des soins prodigués aux patients ? Les justifications très sérieusement avancées étant le fait que la situation «confortable» du médecin est une nécessité pour la sécurité des patients.

On ne peut qu’être abasourdis par une manipulation aussi grossière portée par de faux arguments. Ce mouvement des «médecins pigeons» - né sous l’impulsion d’un chirurgien esthétique libéral notons-le au passage - peut, d’un certain point de vue il est vrai, paraître légitime. Opinion que, personnellement, nous ne partageons pas car les salaires des médecins (hospitaliers, libéraux secteur 1 ou 2) appartiennent à la frange supérieure des revenus français. Ces médecins, réagissant par corporatisme, souhaitent en fait conserver leur confortable rémunération. Alors de grâce, ne sous-entendez pas que tout cela est fait pour le bien du patient ! Comment est-il possible d’avancer qu’un patient est mieux traité par un médecin libéral en secteur 2 avec honoraires libres que par l’hôpital public, ou par un médecin conventionné secteur 1 ?

Finalement, dernière doléance avancée par les médecins libéraux : «on» nous traiterait comme des délinquants. Non, lorsque la ministre de la Santé déclare «vouloir sécuriser l’accès aux soins en encadrant les dépassements d’honoraires», nous ne nous sentons pas traités comme des délinquants. Nous en connaissons bien certains (minoritaires) qui agissent comme tels, et ne pourrions que nous réjouir si cette loi permettait de limiter de telles pratiques. Ils s’insurgent encore, criant au scandale car on «jetterait l’opprobre» sur la profession. Qui peut avoir retenu une telle chose des déclarations récentes des autorités ? Tous les effets de manche sont permis, et tout se justifie quand il faut se battre pour ne pas perdre ses avantages.

La tournure que prend cette mobilisation est obscène. Après tout, on le voit bien, on ne fait plus médecine par vocation. Enfin de moins en moins… Il nous apparaît donc indispensable que ces mouvements ne trompent pas les patients et le public avec des justifications mensongères de façade en agitant le drapeau de la santé publique et du bien-être des patients, de la déontologie et de la liberté mais plutôt reconnaissent officiellement leur position aisée de «travailleur» cherchant à conserver une confortable rémunération aux dépens des patients les plus précaires.

[retour ; haut de page]

Vers un autre monde (et donc une autre science économique) ?

Journal du MAUSS, 28 juin 2011

De très nombreux reproches sont régulièrement faits à l’encontre de l’analyse économique dite orthodoxe ou néoclassique. Cela s’observe dans nombre de lieux et de supports assez variés. L’expérience peut s’en faire notamment sur des blogs, des journaux, des revues ou des collectifs étudiants. En 2009, il est ressorti en périphérie d’un atelier de travail à Montréal intitulé « Workshop on Tax competition : how to meet the normative and political challenge » et rassemblant des juristes, des politologues, des philosophes et des économistes, que ce qui est principalement reproché à l’économie est un normatisme idéologique. Cette même critique ressort d’ailleurs fortement du numéro 30 de la revue du MAUSS : « Vers une autre science économique (et donc un autre monde) ? ». Ce numéro présente l’avantage de clarifier, d’expliciter et d’argumenter les critiques faites à cette analyse économique dominante. Cependant, si on ne peut qu’être globalement en accord avec beaucoup de ce qui est dit sur le fond, il apparaît que les reproches ne sont adressés ni aux bonnes personnes ou ni aux bons problèmes.

En fait, s’attaquer à l’économie néoclassique en tant que cadre analytique est se tromper d’adversaire et ne fait pas en soit avancer le débat dans le bon sens. Ce n’est pas cette discipline en elle-même qui est idéologiquement normative, mais des économistes en tant que personnes – et bien plus encore des non économistes – qui au mieux interprètent, au pire déforment des résultats scientifiques autour de leurs propres valeurs, camouflant le subterfuge sous un discours prétendument objectif et scientifique. Alors, à l’opposé de sa mise à l’index en tant que discipline scientifique, une utilisation de l’analyse économique néoclassique positive pourrait se révéler extrêmement utile dans un débat plus général de sciences sociales ou de politique économique. Et ce point de vue semble rejoindre le point 1 du manifeste institutionnaliste : « … la science économique, correctement interprétée, ne fait sens que vue comme le moment analytique de l’économie politique. » [1]. L’important est de pouvoir séparer ce moment analytique positif de l’introduction de valeurs en vue des propositions normatives de l’économie politique. Alors l’analyse économique néoclassique, correctement pratiquée, peut parmi d’autres disciplines participer pleinement de ce moment analytique.

La première partie de ce commentaire s’attache principalement à montrer que la vision de l’analyse économique néoclassique présentée dans le numéro 30 de la revue du MAUSS est caricaturale et erronée. Tout d’abord, il s’agit d’une simplification à outrance de ce cadre analytique où il finit par être réduit à ses premiers résultats, datant du XIXe siècle, et interprétés sans prendre en compte ce qui est de l’ordre de la conclusion ou de l’hypothèse. Ensuite, un portrait plus conforme de la science économique est présenté, où il est expliqué qu’elle est faite d’hypothèses et de méthodes très hétérogènes, non seulement entre courants mais également à l’intérieur même de la-dite orthodoxie. Cette hétérogénéité ne constitue pas une incohérence ni ne reflète uniquement des désaccords idéologiques. Elle existe par essence car il n’y a pas ni ne saurait y avoir de théorie générale et complète en économie. Enfin, la nette différence entre l’image de la science économique et ce qu’elle est vraiment serait en partie expliquée par la confusion existant entre un discours économique scientifique et un discours économique médiatique.

La deuxième partie de ce commentaire tente de comprendre où se situe effectivement l’idéologie dans les discours mis en cause. Même si la confusion est soigneusement cultivée par ceux qui présentent leur profession de foi idéologique comme des résultats scientifiques de l’analyse économique néoclassique, elle se situe non pas dans les raisonnements eux-même mais bien souvent dans les interprétations de ces raisonnements. Il est ensuite discuté la place des valeurs dans l’analyse économique et la nécessité de séparer clairement, aussi bien dans les réflexions que dans les discours, les parties positives et analytiques des parties normatives où doivent influer les valeurs. En effet, changer de valeurs ou d’idéologies sans séparer celles-ci des résultats positifs ne serait que changer un normatisme idéologique contre un autre et ne permettrait aucunement d’espérer un autre monde.

Une vision erronée de l’économie néoclassique

1/ Simplification à outrance et théorie du XIXe siècle

La vision de l’économie néoclassique, aussi bien celle donnée à travers le n°30 de la revue du MAUSS que celle donnée par de nombreux adversaires de l’économie néoclassique est bien souvent excessivement caricaturale, pour ne pas dire fausse, et pourrait se résumer en cette équation simpliste : « analyse économique néoclassique = idéologie néolibérale ». Plus généralement, l’économie néoclassique est bien souvent caricaturée sous les traits de ce que furent les débuts de ce courant. Ces débuts sont importants à connaître et à comprendre d’un point de vue épistémologique, mais correspondent à l’analyse économique du XIXe, qui a depuis été grandement perfectionnée et approfondie, afin de saisir au fur et à mesure de plus en plus de complexité.
Les théorèmes du bien-être

On trouve ainsi une caricature de ce type dans le point 4 du quasi manifeste institutionnaliste proposé par Alain Caillé : « la théorie classique de l’équilibre général […] affirme que la libre coordination entre de tels agents [homo œconomicus] conduit spontanément et automatiquement à un optimum économique » [2]. Plusieurs confusions existent sur ce résultat bien connu des économistes néoclassiques sous le nom de « premier théorème du bien-être ». Une première confusion réside dans la compréhension du terme « optimum ». Dans ce premier théorème du bien-être, cet « optimum » est un « optimum de Pareto », c’est à dire qu’on ne peut pas modifier la situation à partir d’un tel optimum en contentant tout le monde : tout déplacement depuis un optimum de Pareto engendre des perdants. Cet optimum, du fait qu’il s’appelle optimum, est souvent interprété comme un idéal à atteindre, mais il s’agit uniquement d’une interprétation. Il existe une infinité d’optima de Pareto et le fait d’en être un signifie seulement qu’il n’existe pas de gaspillage. D’ailleurs, la situation dictatoriale où une personne possède tout et les autres rien est un optimum de Pareto, sauf si ce dictateur peut accroître sa richesse personnelle en la partageant (c’est pourquoi des propriétaires donnent une part de leur capital pour rémunérer du travail : cela accroît leur richesse). Ce théorème affirme simplement que l’équilibre de concurrence pure et parfaite est un optimum de Pareto, mais absolument pas, ni que c’est celui que l’on souhaiterait socialement obtenir, ni d’ailleurs que la concurrence pure et parfaite existe réellement.

Une deuxième confusion réside en effet dans le fait que la phrase citée constitue le « alors » d’un « si… alors », et qu’il manque le si. Le « si » constitue l’ensemble des hypothèses dont la principale est « si l’économie est constituée de marchés de concurrence pure et parfaite », ce qui nécessite de nombreuses conditions (homo œconomicus, atomicité, homogénéité des produits, information parfaite…) qui elles-mêmes sont toutes bien évidemment des fictions tant elles sont extrêmes. Il est fréquent de croiser des individus ayant une interprétation au premier degré de ce théorème du bien-être (et parmi eux on retrouve notamment des hommes politiques, des fonctionnaires, des journalistes et même des économistes), il arrive même que certains comprennent les hypothèses comme des impératifs. Combien de fois entend-on : « la théorie néoclassique prétend que l’être humain est un homo œconomicus, que les marchés sont constitués de multiples petites entreprises, que l’information est parfaite », c’est absurde ! L’analyse néoclassique a simplement dit au début du XXe siècle : « si les marchés sont parfaits, alors l’allocation des ressources est en conformité avec le critère de Pareto ». Ensuite, une grande partie de la recherche depuis a consisté à relâcher une à une et le plus loin possible les hypothèses de la concurrence pure et parfaite pour comprendre ce qui se passe réellement.

Pour résumer la démarche, l’analyse néoclassique est partie d’un modèle idéal extrêmement simple, donc compréhensible dans son ensemble, puis a tenté de le compliquer de plus en plus. Ont été alors étudiés les cas de différentes concurrences de plus en plus imparfaites : présence de peu d’offreurs ou de peu de consommateurs, hétérogénéité des produits, information imparfaite ou asymétrique, et depuis récemment un grand pan est ouvert dans l’étude de la modélisation de comportements irrationnels, ce qui consiste à relâcher l’hypothèse de l’homo œconomicus lui-même. On peut critiquer en soi cette démarche consistant à partir d’une modélisation très simplifiée qu’on complique au fur et à mesure, elle a certainement des défauts. Toutefois, c’est une erreur de critiquer l’ensemble du programme de recherche en le confondant avec le modèle simplifié initial.
Une économie d’échange pur

Un autre exemple de caricature de l’analyse économique se trouve dans l’article de Nicolas Postel : « Hétérodoxie et Institution », dans lequel il présente trois points essentiels qui selon lui marquent la différence entre orthodoxie et hétérodoxie. Loin de montrer l’unité des hétérodoxes (pas plus que celle des orthodoxes d’ailleurs), cela schématise surtout une vision de l’analyse néoclassique actuelle qui me semble erronée.

Le premier point est : « Economie de production contre économie d’échange », où il présente l’analyse néoclassique comme une théorie d’échange pur, sans autre mécanismes expliquant les prix que ceux de l’offre et de la demande. Selon lui, ce que fait l’économie hétérodoxe et que ne fait pas l’économie orthodoxe, c’est relier les prix aux conditions de production et à l’entreprise. Pourtant, la production est déjà présente, certes de manière assez sommaire, dans les œuvres de Walras ou de Jevons [3]. Si une part d’idéologie cherchant à camoufler la lutte des classes n’est sûrement pas étrangère au succès originel de cette théorie, ces œuvres fondatrices ont rapidement été approfondies par des études marginalistes de la production. L’analyse néoclassique consiste en effet à confronter des fonctions d’offre et de demande, mais celles-ci sont le reflet de multiples éléments, dont notamment les institutions ainsi que les conditions et capacités de production. L’analyse des entreprises et de la production est donc bien présente dans la théorie néoclassique, et ce dès ses balbutiements. Encore une fois, la modélisation la plus simple de l’équilibre économique en concurrence pure et parfaite peut ne pas concevoir la production, et celle juste un peu plus complexe une production dessinée à grands traits. Cependant, le principe même de l’analyse néoclassique n’exclue en rien une compréhension plus fine des entreprises et de la production, tâche à laquelle se sont attelés de nombreux économistes travaillant dans un cadre analytique néoclassique.

Dans le même registre des procès d’intention intentés à l’analyse néoclassique, Nicolas Postel écrit un peu plus loin que « Walras cherchait à montrer que, en économie, le marché nous libérait de l’institution sociale » [4], il ajoute que « Le principe même de l’institution constitue un obstacle épistémologique pour le paradigme néoclassique » [5] et encore qu’« On connaît les difficultés du paradigme néoclassique à appréhender la protection sociale, l’investissement au travail, les déterminants salariaux, le phénomène syndical »[6]. Ces trois assertions sont fondamentalement fausses. Ce n’est pas parce que l’étude de ces principes institutionnels ne les modélise pas comme un déterminant direct du salaire – mais les mêlent à d’autres déterminants dans des fonctions d’offre et de demande qui ensuite permettent de déterminer le salaire – qu’ils ne sont pas pris en compte dans l’analyse économique néoclassique. Plusieurs exemples dans les parties suivantes en attestent.
Une économie capitaliste de marché

Le deuxième point est intitulé « Economie capitaliste contre économie de marché ». Encore une fois, il est probable qu’une des motivations de l’étude des marchés – quitte à occulter le caractère capitaliste – est un caractère idéologique de négation de la lutte des classes (surtout dans les présentations où tous les agents ont des biens matériels à échanger). Cependant, il est faux de faire ce procès à la recherche néoclassique actuelle qui est une étude d’une économie capitaliste à travers un fonctionnement de marché. On en revient d’ailleurs un peu au point précédent puisqu’à partir du moment où on analyse la production, qui est une production capitaliste pour les sociétés étudiées, on analyse de fait une économie capitaliste.

Par ailleurs, dans ce paragraphe, Nicolas Postel se réfère à Marx pour chasser l’idée de marché du travail. Pour lui, l’analyse néoclassique ne prend pas en compte le rapport salarial : « Les rapports d’échange sont considérés comme fondés sur l’égalité absolue, et non formelle, des échangistes et ne sont reliés à aucune détermination sociale » [7]. C’est à mon sens une autre vision erronée de l’analyse marginaliste. Le fait de modéliser la relation salariale par un marché du travail ne signifie ni que les rapports d’échanges sont fondés sur l’égalité absolue ni qu’ils ne sont reliés à aucune détermination sociale. Les fameuses fonctions d’offre et de demande pour le marché du travail sont le produit d’un grand nombre de facteurs dont les institutions font partie et peuvent entraîner une inégalité de pouvoir de négociation criante. Il est important de noter qu’il est pour le moins réducteur de limiter l’analyse néoclassique à la simple utilisation de telles fonctions d’offre et de demande. La compréhension des différents phénomènes qui les sous-tendent (et notamment les enjeux de protection sociale, d’investissement au travail, de phénomènes syndicaux et d’autres déterminants salariaux) font partie intégrante du programme de recherche néoclassique.

Nicolas Postel dit encore : « L’exploitation n’est pas le fait d’un rapport interindividuel qui opposerait des personnes moralement critiquables. Elle est au contraire un processus systémique et général qui s’impose à chaque travailleur, mais aussi à chaque capitaliste désireux de le rester et contraint, pour ce faire, de rechercher comme ses concurrents des gains de productivité en accumulant du capital et en maintenant minimale la rémunération du travail. » [8]. L’analyse néoclassique ne nie pas dans ses hypothèses l’existence d’un tel processus systémique, mais elle porte particulièrement son attention sur les conséquences en terme de décisions individuelles et de production globale du fait que chacun est contraint de rechercher comme ses concurrents des gains de productivité en accumulant du capital et en maintenant minimale la rémunération du travail.

De plus, il laisse entendre que cette rémunération minimale est la rémunération de subsistance uniquement, faisait référence à la « loi d’airain » des salaires. Or Marx est très critique envers cette loi dont on lui attribue la défense. Si une lecture avisée du Capital permet de le comprendre, il le rappelle encore plus clairement dans sa critique des programmes socialistes : « Ainsi, à l’avenir, le parti ouvrier allemand devra croire à la « loi d’airain » de Lassalle ! (…) Mais si j’admets la loi avec l’estampille de Lassalle, […] il me faut également en admettre le fondement. Et quel fondement ! (…) C’est la théorie malthusienne de la population. (…) Mais, si cette théorie est exacte, je ne puis plus abolir la loi, quand j’abolirai cent fois le travail salarié, parce qu’alors la loi ne régit pas simplement la loi du travail salarié, mais tout système social. » [9] Non, Marx considère la fixation du salaire au niveau de subsistance comme une simplification de la réalité. Pour lui, le salaire gravite autour de ce salaire de subsistance en fonction de l’offre et de la demande de travail, tout en restant proche de ce dernier du fait de la très grande asymétrie dans les rapports de force sur le marché du travail.

Dire que Marx pense que la loi d’airain des salaires est valide est aussi faux que dire que l’analyse néoclassique (on ne peut malheureusement pas en dire autant de tous les économistes néoclassiques) considère que les marchés réels sont en concurrence pure et parfaite. En effet, Marx opère avec une hypothèse forte pour simplifier sa modélisation quand l’intérêt de son analyse ne porte pas précisément sur les salaires, mais la lève aussitôt qu’il analyse le marché du travail en particulier. On peut ainsi lire dans Le Capital : « L’accroissement du capital renferme l’accroissement de sa partie variable. En d’autres termes, une quote-part de la plus-value capitalisée doit s’avancer en salaires. (…) Le progrès constant de l’accumulation doit même, tôt ou tard, amener une hausse graduelle des salaires. (…) chaque année fournira de l’emploi pour un nombre de salariés supérieur à celui de l’année précédente, et […] à un moment donné les besoins de l’accumulation commenceront à dépasser l’offre ordinaire de travail. Dès lors, le taux des salaires doit suivre un mouvement ascendant. » [10]. Et plus loin : « Tantôt c’est un excès en capital, provenant de l’accumulation accélérée, qui rend le travail offert relativement insuffisant et tend par conséquent à en élever le prix. Tantôt c’est un ralentissement de l’accumulation qui rend le travail offert relativement surabondant et en déprime le prix. » [11]

Si l’on voulait résumer la pensée de Marx avec les termes de Nicolas Postel, on dirait que l’exploitation est bien le fait d’un rapport interindividuel qui oppose des personnes moralement critiquables, mais ce rapport à lieu dans le cadre d’un processus systémique et général qui s’impose à chaque travailleur et à chaque capitaliste désireux de le rester. Pour exprimer les conditions de cette inégalité fondamentale sur le marché du travail en termes néoclassiques, on pourrait dire qu’elle vient du fait que le capitaliste n’a pas un besoin impérieux de travail, ou pour le moins peut survivre en minimisant sa demande : la demande de travail est relativement élastique, alors que l’ouvrier a besoin de travailler pour vivre : l’offre de travail est grandement inélastique. Il en résulte un prix minimal sur le marché du travail, mais variable en fonction des variations marginales de l’offre et de la demande : les salaires sont bas. Cette modélisation n’est pas qu’un jeu d’interprétations, elle est utile pour comprendre comment les changements dans ces élasticités, qui traduisent des variations du rapport de force, induisent des changements de salaires et de conditions de travail. Ainsi, la constitution de syndicats, comme la mise en place de systèmes sociaux de solidarité, permet d’augmenter le pouvoir de négociation des salariés par l’augmentation de l’élasticité de l’offre de travail, et ainsi de faire remonter les salaires.
Il est intéressant d’ailleurs d’utiliser ce schéma d’analyse pour comprendre les fortes baisses de salaires que l’occident connaît depuis les années 90. Après guerre, la force de travail n’étant pas en quantité colossale (faible offre de travail), et les besoins de reconstruction étant très importants (forte demande de travail), les salariés ont réussi à négocier d’importantes hausses de rémunérations, notamment sous la forme de conditions de travail et de protection sociale (car la protection sociale telle qu’élaborée en France est belle et bien une forme de rémunération non monétaire). Avec la chute de la « menace » communiste, et la hausse de l’offre de travail en général (en quantité et en qualité), le tout associé à une baisse de la demande de travail pour des raisons de diminution de la croissance productive et d’amélioration des technologies, l’élasticité de l’offre a baissé quand celle de la demande a augmenté, conduisant ainsi à une baisse des salaires réels à travers une augmentation inférieure à l’inflation et un recul de la protection sociale (par exemple, le passage progressif de la Sécurité Sociale vers des assurances privées).
L’économie monétaire et la loi de Say

Le troisième point est : « Economie monétaire contre économie réelle », où Nicolas Postel fustige la « loi de Say » (qui pour le coup date de 1803) et proclame que « l’unique explication analytiquement solide du chômage involontaire est bien celle de Keynes. » [12]. Tout d’abord, penser que l’analyse économique est restée à la loi de Say est très réducteur. Mais pour ce qui est du vrai débat derrière ces accusations rapides, il faut avouer que l’avancée énorme permise par l’œuvre de Keynes a eu des conséquences sur pratiquement tous les courants économiques, y compris le courant néoclassique parmi lequel de nombreux économistes étudient les phénomènes monétaires. On peut soit penser que les néoclassiques sont hypocrites et incohérents - avec la loi de Say affirmant que l’économie n’est que réelle et étudiant par ailleurs les phénomènes monétaires, soit penser que les sciences évoluent.

Par ailleurs, les néoclassiques, en plus de s’attacher à comprendre les phénomènes monétaires, s’attachent à comprendre également les effets réels, car il en existe. Il est donc pour le moins simplificateur de prétendre que le chômage keynésien est la seule explication du chômage involontaire. Outre la fixation de salaires minimums (soit directement par la loi, soit par d’autres contraintes sociales), ce qui a forcément pour effet de modifier l’offre et la demande de travail, Shapiro et Stiglitz ont ouvert une branche d’étude néoclassique en expliquant le chômage involontaire « à la Marx » ai sein d’un processus décentralisé [13]. Ils ont d’ailleurs modélisé la question de l’investissement au travail que Nicolas Postel pensait difficile à appréhender pour le paradigme néoclassique. Les idées présentées dans cet article sont très certainement issues de Keynes, et Stiglitz s’en réclame, mais la modélisation est sans conteste néoclassique.

Pour revenir au cas des salaires minimums, Keynes le considérait comme un déterminant du chômage volontaire, au moins dans la conception de volonté générale de la société. Cependant, si dire qu’il ne faut pas de salaires minimums pour éviter le chômage n’est qu’un argument idéologique en vue de faire baisser encore plus les salaires, nier tout lien entre les niveaux réglementaires des salaires et le chômage involontaire relève tout simplement de la destruction de thermomètre. La véritable question est de savoir si cette cause est faible ou importante devant les autres causes créatrices de chômage involontaire, et plus généralement si s’attacher à faire baisser les salaires est la solution la plus efficace et la moins coûteuse socialement pour faire baisser le chômage. L’analyse économique néoclassique peut alors grandement aider à répondre à cette question.
Discours scientifique et discours médiatique

Si les critiques adressées à l’analyse économique néoclassique sont souvent erronées, c’est probablement aussi parce que, comme le présente Jacques Sapir, il existe une grande confusion entre les discours économiques et les discours médiatiques. « Ainsi, alors que le discours du journalisme économique proclame depuis deux décennies que le protectionnisme est un mal absolu, nombre de travaux scientifiques aboutissent à un résultat inverse. Cet écart entre le discours économique médiatique et le discours scientifique constitue alors en lui-même un élément du débat à prendre en compte. » [14]. De ce point de vue, comme le discours médiatique se déclare bien souvent de la théorie néoclassique, il y a confusion entre le discours médiatique et l’économie néoclassique. On reproche alors à l’analyse néoclassique les simplifications et les falsifications du discours médiatique, avec, comme nous l’avons présenté plus haut, des procès d’intentions et des références à l’économie du XIXe siècle.

Ainsi, il existe une différence notable entre l’analyse néoclassique et le consensus de Washington. Ce dernier a effectivement été soutenu par des économistes néoclassiques, mais par des arguments tout à fait contestables à l’intérieur même de l’analyse économique néoclassique. En effet, les principes défendus ont de multiples influences, partiellement contradictoires, sur la situation des différents pays concernés. A ce titre, les effets pervers des principes prônés par le FMI et la banque mondiale, principalement pour les pays en voie de développement, étaient prévisibles et expliqués par la théorie néoclassique. Mais c’est sur le terrain médiatique, assumé aussi par les administrateurs de ces institutions et des principaux états membres, que le consensus de Washington l’a emporté, aidé en cela par un monde journalistique conciliant et quelques experts économiques renommés. Cependant, si le crédit qui leur est a priori accordé a fortement servi la cause du consensus de Washington du point de vue médiatique, ces économistes ne portent pas un consensus au sein de l’analyse scientifique néoclassique.

2/ Il n’existe pas de théorie générale de l’Homme

La présentation précédente des déterminants du chômage peut paraître décousue. Un article parlant d’un déterminant, un autre d’un autre. La raison en est principalement que la recherche économique néoclassique sérieuse a depuis longtemps perdu la prétention de constituer une théorie générale de l’économie. Dans son « Quasi-manifeste institutionnaliste », Alain Caillé parle beaucoup de théorie générale en sciences sociales. Cependant, outre le fait qu’il n’en existe pas actuellement de valide [15], il y a fort à parier qu’il ne puisse pas en exister une. L’homme et sa manière exacte de se comporter en société est certainement bien plus complexe (et probablement aléatoire) que ne pourrait en rendre compte n’importe qu’elle théorie générale finie. Ainsi, l’analyse économique néoclassique cherche à mettre en perspective des effets différents et éventuellement contradictoires, mais pas forcément de manière exhaustive. D’où l’accord partiel avec le point 10 du quasi-manifeste institutionnaliste : « L’économie politique institutionnaliste doit élaborer une analyse pertinente pour tous les niveaux de l’action (micro, macro, meso, etc.) » [16]. L’économie politique doit effectivement se baser sur une analyse multi-niveaux, mais il faut ajouter qu’il est illusoire d’espérer qu’une analyse couvre tous ces niveaux à la fois, et même toute l’hétérogénéité de chaque niveau. Il s’agit donc de s’appuyer sur des analyses multi-niveaux, et parmi celles-ci se trouve l’analyse économique néoclassique. Pour résumer ma pensée, et mon désaccord avec les points 10 et 11 de ce même quasi-manifeste institutionnaliste, l’économie politique ne peut pas reposer sur une théorie unique de l’action sociale et économique. Ces analyses multi-niveaux, non seulement en économie mais aussi plus généralement en sciences sociales, ne peuvent pas consister en une théorie générale de l’Homme : il ne saurait exister une théorie générale du comportement humain.

Quelle serait alors la cohérence de ces analyses multi-niveaux ? Elles consisteraient en une juxtaposition et une confrontation de touches et de modélisations, différentes selon le sujet d’étude forcément partiel. Il faut comprendre l’Homme en expliquant par parties ses décisions. Une des branches de ce grand projet consiste à définir différents « effets » sur ces décisions par modélisation en fonction du contexte. Et il se trouve que pour un nombre non négligeable de décisions, le caractère calculateur de l’Homme – qui ne définit certes pas l’Homme dans son ensemble mais est une de ses indéniables capacités – entre en compte. Se passer de l’étude des influences de ce caractère calculateur serait une grande erreur et rendrait plus parcellaire encore l’analyse des décisions humaines. Pascal Combemale écrit d’ailleurs que « l’homme n’est pas forcément œconomicus à la base, mais placé dans une société concurrentielle, il l’est ou il meurt » [17]. Peut-on douter que l’homme soit aujourd’hui placé dans un tel type de société ? La seconde partie reviendra sur la raison pour laquelle il est plongé dans cette société, mais à partir du moment où il l’est, il est impératif pour comprendre ses décisions d’étudier aussi ce qui découle de son caractère calculateur.

La conclusion de cela est que l’analyse économique néoclassique n’est qu’un des nombreux vecteurs de compréhension de l’homme en société, mais que c’est un vecteur performant. C’est un cadre analytique qui permet de comprendre beaucoup, comme l’admet d’une certaine manière Alain Caillé : « … des économistes orthodoxes intelligents et ouverts, comme il en est heureusement beaucoup, sont tout à fait susceptibles de se reconnaître eux aussi dans nombre de formulations non standards qui vont suivre. L’explication de ce paradoxe réside dans le fait que la force du modèle standard, c’est son formalisme largement tautologique qui, une fois débarrassé des connotations idéologiques dont il est le plus souvent lesté, lui permet de s’adapter à peu près à n’importe quel contenu. » [18]. Ce passage est extrêmement péjoratif et déclare comme non standard des formulations qui ne le sont pas (pas plus qu’elles ne sont standards il faut bien l’avouer), mais contient une vérité très importante : le cadre analytique néoclassique est un outil adaptable et efficace.

Lorsque Pascal Combemale parle de schizophrénie, il se rapproche de ce qu’Alain Caillé appelle un paradoxe : « … les économistes sont volontiers schizophrènes. Ceux dont le métier est d’analyser la conjoncture utilisent des modèles éclectiques dont l’armature reste souvent celle de la bonne vieille synthèse classico-keynésienne. (…) Par ailleurs, lorsque les questions se font plus précises, le praticien se soucie moins de théorie pure que du choix de la meilleure technique économétrique. (…) Le pragmatisme conduit à répondre de façon empirique à des énigmes concrètes » [19] ou encore : « … la force de l’orthodoxie réside profondément dans sa normativité, laquelle se nourrit d’une anthropologie et d’une philosophie politique » [20]. On peut reformuler de manière moins péjorative cette phrase en disant que des orthodoxes actuels font feu de tout bois pour comprendre le monde, qu’ils confrontent différents modèles et différents effets, cherchant le plus adapté à chaque situation. Il se trouve que c’est sûrement une bonne solution s’il n’existe pas de théorie générale de l’homme.

Mais bien entendu ce grand projet de sciences sociales paraîtrait bien vain s’il ne consistait qu’en un catalogue de tous les effets possibles, issus de différents raisonnements et hypothèses, et donc difficile à confronter. C’est là que peut-être la dénomination de sciences se justifie par la partie empirique de ce travail, qui consiste par tous moyens possibles, - études de terrain qualitatives, analyses statistiques de situations passées ou expérimentations -, à tester et à comparer l’importance et la prévalence des différents effets.

Normativité et violence symbolique

Outre les fausses critiques sur la réalité de l’analyse économique néoclassique, il lui est souvent reproché d’être idéologique ; plus précisément de défendre une idéologie de libéralisme économique, de non intervention publique, de concurrence sur les marchés… Plusieurs questions se posent alors. La première sous partie de cette seconde section interroge la réalité de l’existence de l’idéologie dans la science économique elle-même et dans nombre de ses utilisations ? Si, pour revenir à la séparation précédemment présentée, les discours économiques médiatiques sont incontestablement idéologiques, il faut bien constater que beaucoup de discours scientifiques le sont aussi, sans pour autant qu’ils le soient forcément. En effet, l’idéologie n’est pas un fondement essentiel de l’analyse néoclassique, mais un ajout. La seconde sous partie se penche sur les buts et surtout les influences réelles de cette idéologie ? La réponse à cette question différera bien évidemment suivant qu’on l’abordera avec une vision idéaliste ou matérialiste du changement social. Enfin, si le but est de changer le monde (à moins que le but soit uniquement de changer de science économique et que le changement de monde ne reste qu’un dommage collatéral), quelle aide l’économiste peut-il apporter ? La troisième sous partie tentera alors de définir dans quelle mesure il doit incorporer ses valeurs dans ses analyses, et surtout comment et à quel moment du raisonnement.

1/ Où se situe l’idéologie ?

A lire le numéro 30 de la revue du MAUSS, il nous est donnée l’impression que l’analyse économique néoclassique repose sur des bases essentiellement idéologiques et qu’elle ne peut exister sans l’idéologie de libre concurrence et de laisser faire. Or c’est profondément faux. Le type de raisonnement utilisé dans cette analyse n’est pas plus idéologique qu’un autre, et, pour ne parler que des études économiques sérieuses, l’idéologie n’a que deux endroits pour se terrer, lorsqu’elle se terre effectivement : dans les hypothèses et dans les conclusions. En effet, le raisonnement économique orthodoxe n’est rien d’autre qu’une induction, qu’un « si… alors ». Et l’idéologie intervient souvent dans le fait que le « si » est tu et que le « alors » est interprété, mais ces erreurs n’enlèvent en rien la valeur de l’induction.

Pour ce qui est du « si », l’idéologie intervient principalement dans son oubli. C’est à dire que l’on considère comme un fait absolu ou comme une situation naturelle et inévitable ce qui est de l’ordre de la construction sociale. Le « si » le plus souvent oublié est ainsi : « si les hommes étudiés participent à une société de production capitaliste ». L’analyse économique néoclassique tend souvent à interpréter ses résultats comme généraux, alors qu’ils ne sont valables que dans un type précis de société. Cependant, tant que l’on reste dans cette société capitaliste, les résultats néoclassiques sont valables.

Parallèlement, l’endroit où l’on retrouve le plus souvent l’idéologie est dans l’interprétation de la conclusion. Il est en effet compréhensible qu’un auteur tente de réinterpréter les résultats au regard de ses valeurs. Mais cela conduit bien souvent à des confusions et des sur-interprétations. Un des meilleurs exemples est ce fameux théorème du bien-être déjà discuté. Outre le périmètre de validité qui est bien souvent élargi à tort, ce théorème ne dit ni plus ni moins que si toutes les hypothèses sont respectées, l’équilibre de marché constitue une allocation des facteurs et des produits optimale au sens de Pareto, ce qui ne veut absolument pas dire que cette situation soit souhaitable. Le passage « d’optimum de Pareto » à « situation souhaitable pour la société » réside bien souvent dans une méconnaissance profonde du concept d’optimum de Pareto, et s’avère probablement très utile à certaines idéologies. Il n’en demeure pas moins que le théorème du bien-être ne dit absolument pas que la situation émanant de la libre concurrence est la situation économique socialement souhaitable.

Comme présenté précédemment, des auteurs du numéro 30 de la revue du MAUSS : « Vers une autre science économique (et donc un autre monde) ? » admettent au moins partiellement la pertinence des hypothèses néoclassiques ; ainsi, Pascal Combemale écrit « l’homme n’est pas forcément œconomicus à la base, mais placé dans une société concurrentielle, il l’est ou il meurt » [21]. Ainsi, l’étude d’une société fortement concurrentielle comme l’est la société de production capitaliste semble donc justifier à ses yeux l’hypothèse d’homo-oeconomicus. Cependant, il semble dire, et d’autres auteurs dans le même numéro avec lui, que c’est la science économique néoclassique qui est responsable de ce monde concurrentiel. Ainsi, ce serait l’analyse économique néoclassique qui pousserait l’homme à se comporter comme un homo œconomicus. C’est donner là un énorme pouvoir à cette science, pouvoir qu’elle n’a probablement pas. Certes, il est indéniable qu’il existe bien souvent un effet réciproque d’une science sur son objet d’étude, et cela d’autant plus que cette science est sociale et qu’elle a des prétentions normatives. Mais, si nous vivons dans un monde capitaliste, cela n’est à l’évidence pas le seul fait des économistes mais relève de bien d’autres causes.

Alors, nier les résultats scientifiques de l’analyse économique néoclassique – et pas ceux prétendus tels - lorsqu’on vit dans une économie capitaliste revient à casser le thermomètre lorsqu’on est malade. Il y a fort à parier que ce monde concurrentiel a été instauré non pas parce que des économistes se sont dit que ce monde là serait bien, mais bien parce que la classe qui a pris le pouvoir économique après la révolution industrielle a eu à la fois l’intérêt et le pouvoir politique de l’instaurer. L’idéologie agit ensuite et permet de conserver le système mis en place sans avoir besoin de renier la démocratie.

Il apparaît tout d’abord un phénomène que Karl Marx et Georg Lukacs appellent la fausse conscience. C’est à dire que la classe dominante, qui a intérêt dans le système mis en place, le justifie non par son pouvoir et son intérêt, mais par des raisons naturelles : là se trouve l’idéologie. Ensuite, ce que Pierre Bourdieu appelle la violence symbolique se produit, la classe dominante impose à l’ensemble de la société cette idéologie qui justifie ex post l’organisation sociale. Il est vrai que cette violence symbolique agit notamment – mais pas uniquement – sous des apparences de théorie économique néoclassique. Cependant, il s’agit là de théorie économique néoclassique déformée ou mal interprétée. C’est le discours médiatique dont parle Jacques Sapir : « … le discours économique médiatique se prétend un discours scientifique, et de ce fait hors de l’espace de la contestation politique. Il se veut une « vérité » au sens scientifique, au moment même où il s’éloigne délibérément et consciemment des résultats des travaux scientifiques. » [22]. Et rejeter ainsi l’analyse néoclassique véritable ne changerait pas cette violence symbolique – qui trouverait d’autres vecteurs – et encore moins le réel rapport de force qui resterait inchangé.

A l’opposé, la négation de certains résultats de l’analyse économique néoclassique peut entretenir une confusion qui profite grandement à l’idéologie dominante. En effet, si un résultat de l’analyse économique néoclassique bien interprété relie par une déduction une condition à une conclusion, quiconque désapprouve la conclusion devrait s’attacher à faire en sorte que la condition ne soit plus effective. Nier à tort le raisonnement, comme le font des critiques de l’analyse économique néoclassique, permettrait seulement de détacher dans l’esprit des opposants la conclusion de la condition, et servirait uniquement à défendre la condition. Ainsi, pour revenir à l’exemple qui nous préoccupe, nier le raisonnement de l’analyse néoclassique qui dit qu’un système de production capitaliste (condition) conduit forcément à un niveau élevé de violence et d’inégalités (conclusion) ne permettrait jamais de diminuer significativement les inégalités. Cela participe au contraire de l’idéologie qui tend à protéger le système actuel, soit en le déclarant comme naturel, soit en le détachant de ses conséquences réelles.

Dans ce cadre, il est effectivement important que l’ensemble des économistes, et parmi eux plus encore les quelques néoclassiques qui ne sont pas dupes de la supercherie, travaillent à lever le voile de cette idéologie. Mais ici il n’est pas question de méthode d’analyse, car l’idéologie n’a pas atteint l’analyse économique néoclassique mais bon nombre d’économistes, néoclassiques ou non.

2/ Idéalisme ou matérialisme

Une partie des désaccords avec les articles de la revue du MAUSS présentés précédemment se résument à un désaccord fondamental sur la conception du changement social : vue idéaliste contre vue matérialiste. Dire que l’analyse économique néoclassique est la force qui a permis d’instaurer le capitalisme est idéaliste. Dire que l’analyse économique néoclassique étudie le capitalisme qui a été instauré par les révolutions industrielle et bourgeoise est matérialiste. On retrouve bien cette problématique dans les titres, est-ce parce qu’on élaborera une nouvelle théorie économique que le monde changera par l’adoption de ces nouvelles idées : la version idéaliste « Vers une autre science économique (et donc un autre monde) ? » ou est-ce lorsqu’on changera de mode de production et donc de monde, qu’il faudra inventer une autre science économique pour en rendre compte : la version matérialiste « Vers un autre monde (et donc une autre science économique) ? ».

Sur ce point de vue, on peut revenir à cette loi d’airain dont parle Nicolas Postel et prendre comme exemple les mouvements généraux des salaires dans les pays occidentaux dans la seconde moitié du XXe siècle. Est-ce aux idées que sont dues ces variations depuis l’après-guerre, ou aux conditions de la production ? L’analyse néoclassique du marché du travail, avec la détermination d’une offre et d’une demande de travail liées aux besoins de reconstruction, aux institutions, etc. permet de comprendre en partie pourquoi la fameuse loi d’airain ne s’est pas trouvée vérifiée notamment depuis la fin de la seconde guerre mondiale.

Après celle-ci, les besoins de reconstruction, et ainsi l’accumulation rapide du capital et la forte croissance allaient de paire avec une très forte demande de travail. L’offre de travail, pas particulièrement augmentée par la guerre, s’est retrouvée relativement faible devant la demande. Dès lors, les salaires ne pouvaient qu’augmenter. Cette augmentation des salaires ne s’est pas faite uniquement en termes monétaires, mais surtout en termes de protection sociale : la protection sociale à la française est bel et bien une forme de rémunération différée et non une forme de solidarité [23]. Ainsi, la constitution du modèle social après guerre n’est pas dû à un nouveau courant d’idées, basé sur l’humanisme et la solidarité, mais bel et bien à un renforcement du pouvoir des travailleurs dans leur rapport de force vis-à-vis de leurs employeurs. Bien entendu, le pouvoir des syndicats de l’époque n’a pas été étranger aux acquis de protection sociale, mais ce pouvoir lui-même a dérivé au moins en partie d’un rapport de forces modifié et n’en a pas seulement été la cause.

À la fin du XXe siècle, ce rapport de forces s’est inversé. La forte hausse de la productivité (elle-même due à de nombreux facteurs que l’analyse économique participe à expliquer) a été une des forces visant à diminuer la demande de travail, alors que l’offre n’avait aucune raison de diminuer par ailleurs. Ce renversement du rapport de forces entre l’offre et la demande de travail devait naturellement entraîner une diminution des salaires. Cette baisse des salaires s’est d’abord produite via une augmentation nominale inférieure à l’inflation, puis le mouvement s’est accéléré avec la remise en cause de bon nombre de rémunérations non monétaires.

L’idéologie du travailler plus et plus longtemps, de la supériorité des assurances privées sur les assurances publiques existe aujourd’hui, mais elle n’est pas la cause réelle et première de la baisse des salaires et de la détérioration de l’accès aux soins, elle n’en est qu’une justification a posteriori. La véritable cause se trouve dans les modifications de l’offre et de la demande de travail, non du fait d’idéologies mais bien pour des raisons structurelles et économiques permises par le système de production capitaliste. La théorie néoclassique offre un bon outil pour comprendre les conséquences en termes de salaires des variations de ce rapport de force entre l’offre et la demande de travail. Alors, la création d’une idéologie alternative serait-elle suffisante pour inverser ce rapport de force ou un changement en profondeur de la société et des ressorts de la production est-elle nécessaire ?

3/ Quelle forme d’analyse et quels valeurs ?

Mais d’où viendra alors ce changement ? Sûrement pas de la simple attaque de l’économie néoclassique. Un changement de la société elle-même est nécessaire, et c’est pourquoi l’analyse néoclassique peut être utile afin de comprendre les facteurs qui doivent absolument être modifiés sous peine de ne rendre les changements que marginaux. Si on souhaite changer le « alors » du raisonnement économique, il faut prendre en compte le raisonnement pour pouvoir remonter au « si » originel et tenter d’agir politiquement sur lui. L’analyse néoclassique ne construit certes pas le monde futur, mais elle permet de comprendre le monde présent, et de faire le lien entre ses institutions et leurs conséquences économiques.

Dans ce sens, une partie des attaques contre l’orthodoxie présentées dans le numéro 30 de la revue du MAUSS se trompe d’adversaire. Cette confusion est particulièrement visible dans la conclusion de Pascal Combemale : « (…) l’hétérodoxie ne peut espérer la combattre [l’orthodoxie] sans dessiner un autre horizon. » [24]. On pourrait attendre plutôt l’inverse : pour pouvoir dessiner un autre monde, il faut combattre l’économie néoclassique, mais ce serait tout aussi faux. Le but est-il de combattre la science économique néoclassique, quitte pour cela à dessiner un autre monde ? Ou le but est-il bien de construire un autre monde, quitte alors à utiliser les enseignements de la science économique néoclassique ?

Alain Caillé semble s’intéresser, quant à lui, plus particulièrement à la définition d’un nouveau monde, et propose pour cela comme solution normative : « La conclusion la plus générale qu’il soit possible de tirer est qu’on ne peut pas avoir d’efficacité économique durable sans édifier une communauté politique et éthique durable parce que forte et vivante. » [25]. Il propose de bâtir une communauté démocratique, morale et juste, à partir de laquelle « l’économie politique institutionnaliste [parviendrait] à déterminer le meilleur agencement institutionnel pour une société donnée à un moment donné. » [26]. La question qui se pose alors est de savoir jusqu’où on appelle le cadre social « agencement institutionnel » ? Y a-t’il une limite aux principes qu’on peut remettre en cause ? Et une communauté démocratique, morale et juste, parviendrait-t-elle à renverser l’idéologie et la violence symbolique pour faire appliquer démocratiquement « le meilleur agencement institutionnel » même s’il va à l’encontre d’intérêts qui ont un poids certain dans les décisions dites démocratiques ?

Il y a fort à parier que pour parvenir à ce but, cette économie politique, qu’on l’appelle institutionnaliste ou autrement, qui se doit d’être normative, devra s’attacher à comparer, au regard des valeurs qu’elle a définies comme siennes, les conséquences économiques et sociales des différents agencements institutionnels. Pour mener à bien cette comparaison, l’analyse économique néoclassique positive, aussi bien que nombre d’autres disciplines positives, pourra être d’une grande utilité.

Quant à l’aspect clairement idéaliste, qui dériverait vers l’utopie, de la proposition d’Alain Caillé, il est encore plus voyant dans sa conclusion : « Une bonne réforme est celle que personne (et même pas ses opposants lorsqu’ils ont remporté les élections suivantes) ne songe plus à abolir une fois qu’elle a été effectuée. » [27]. C’est se tromper doublement. Premièrement, c’est oublier un peu trop que certains ont un intérêt réel dans la situation présente, dans l’inégalité et la soumission. Encore une fois, nier la lutte des classes ne résout pas le problème des intérêts divergents. Deuxièmement, cela semblerait dire, par exemple, que ce que l’opposition Jospin n’a pas enlevé des lois Pasqua-Debré et ce que la prochaine opposition hypothétique n’enlèvera pas des lois Sarkozy-Hortefeux (pour ne citer qu’elles) sont de bonnes réformes ? C’est là oublier un peu vite que la violence symbolique et l’idéologie sont aussi là pour pérenniser les réformes favorables à ceux qui sont peut-être moins nombreux mais plus puissants dans le rapport de force politique, économique et social.

Ainsi, il n’est pas utile de tenter de construire une nouvelle science économique en remplaçant une idéologie par une autre. A l’inverse, il faut justement enfin séparer autant que faire se peut les discours positifs des discours normatifs. Un des problèmes actuels est que ces discours sont mélangés et qu’est présenté sous un (faux) jour positif ce qui est normatif et favorable à une classe restreinte possédant les capitaux productifs. Jouer le jeu dans l’autre sens est voué à l’échec. Il faut au contraire séparer l’analyse positive des valeurs, défendre une analyse économique et sociale positive (dont l’analyse économique néoclassique). Le raisonnement (tout ce qui se trouve entre le « si » originel et le « alors » final) doit s’attacher à être le plus imperméable possible aux valeurs, quelles qu’elles soient. Le rôle des analystes est alors de dissocier les discours idéologiques des discours scientifiques, de lever le voile de l’idéologie, pour comprendre quel est le « si » qui conduit au « alors » qu’on vit aujourd’hui. Ensuite seulement doivent entrent en scène les valeurs, qui doivent alors être clairement affichées, assumées et défendues, dans l’interprétation des résultats et dans les conclusions politiques à en tirer.

Ce travail doit être fait par une science sociale non généralisante, qui cherche à déterminer un par un les effets potentiels, quitte à avoir recours à différentes hypothèses, différentes méthodologies, différents niveaux de généralisation. Et ainsi cette science peut et doit se décomposer en plusieurs types d’analyses, comprenant entre autres l’analyse économique néoclassique. De ce point de vue, il n’y a ainsi pas d’unité entre les hétérodoxies et les différences entres elles sont plus grandes qu’entre l’analyse néoclassique et certaines de ces hétérodoxies. Leur seul point commun est d’être mises à l’écart par les néoclassiques, aidés par le discours médiatique.
Il parait ensuite clair que ce catalogue de différents effets, multiples et contradictoires, ne peut pas permettre à lui seul de réaliser l’interprétation souhaitée en terme d’économie politique. Préalablement, ces différents effets doivent être testés et comparés. Pour ce faire, il existe de nombreuses méthodologies empiriques développées par différentes communautés scientifiques : des analyses quantitatives ou qualitatives, issues d’observations de situations passées ou de processus expérimentaux. Les économistes néoclassiques notamment ont développé des outils statistiques qui savent se révéler extrêmement utiles dans ce type de projet scientifique.

[1] Alain Caillé, Un quasi-manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 38.
[2] Ibid. p. 39.
[3] Walras et Jevons sont considérés comme deux des trois fondateurs de l’économie marginaliste au cours des années 1870, le troisième étant Menger.
[4] Nicolas Postel, Hétérodoxie et institution. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), pp. 79-80.
[5] Ibid. p. 80.
[6] Ibid. p. 83.
[7] Ibid. p.74.
[8] Ibid, p. 73.
[9] Karl Marx et Friedrich Engels. Programmes socialistes, critiques des projets de Gotha et d’Erfurt. Cahiers mensuels Spartacus, 2ème série (1971), n° 42, pp. 29-30.
[10] Karl Marx. Le capital. Editions sociales, Paris (1977), tome III, p. 55.
[11] Ibid. p. 60.
[12] Nicolas Postel, Hétérodoxie et institution. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 75.
[13] Carl Shapiro et Joseph Stiglitz. Equilibrium Unemployment as a Worker Discipline Device. American Economic Review n° 74 (1984), pp. 433-444.
[14] Jacques Sapir, Libre échange, croissance et développement : quelques mythe de l’économie vulgaire. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 151.
[15] Pour qu’une théorie générale soit valide, elle doit l’être en tout point. Si un seul point n’est pas valide, la théorie n’est plus générale mais partielle, pour les parties où elle n’est pas invalidée.
[16] Alain Caillé, Un quasi manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un aute monde) ? (2007), p. 42.
[17] Pascale Combemale, L’hétérodoxie encore : continuer le combat, mais lequel ?. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 63.
[18] Alain Caillé, Un quasi-manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Sciences Economique (et donc un autre monde) ?, p. 33.
[19] Pascale Combemale, L’hétérodoxie encore : continuer le combat, mais lequel ?. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 59.
[20] Ibid. p. 67.
[21] Ibid, p. 63.
[22] Jacques Sapir, Libre échange, croissance et développement : quelques mythe de l’économie vulgaire. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 151.
[23] Il ne faut pas en effet confondre rémunération et solidarité. En France par exemple, le système de protection sociale (assurances chômage et maladie, retraites) est un système assurantiel qui n’est autre qu’une forme de rémunération du travail. Ceci est particulièrement visible avec le chômage et la retraite, pour lesquels les prestations sont proportionnelles aux cotisations. En revanche, les aides de types AME-CMU, RSA ou minimum vieillesse sont de l’ordre de la solidarité.
[24] Pascale Combemale, L’hétérodoxie encore : continuer le combat, mais lequel ?. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p.67.
[25] Alain Caillé, Un quasi-manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 43.
[26] Ibid. p. 45.
[27] Ibid. p.46.

[retour ; haut de page]