La réforme de l’assurance chômage tombe le masque, Blog d'alternatives économiques, 15 octobre 2021 [lien externe]

Assurance chômage : le gouvernement ne peut pas se prévaloir de la science économique pour justifier sa réforme avec Baptiste Françon, Hugo Harari-Kermadec, Sabina Issehnane, Camille Signoretto et Michaël Zemmour, Le club de Médiapart, 8 octobre 2021 [lien externe]

Mon ennemi, est-ce vraiment la Finance ?, Blog d'alternatives économiques, 8 septembre 2021 [lien externe]

Les aides aux personnes en perte d’autonomie sont des soins paramédicaux, Le Monde, 4 juin 2021 [lien externe]

Précariser toujours plus la main d’œuvre, Blog d'alternatives économiques, 26 mai 2021 [lien externe]

La garantie de l’emploi, l’arme sociale du Green New Deal, Le Grand Continent, 11 avril 2021 [lien externe]

On ne soutient pas l’emploi en dévalorisant les métiers, Interview par Julien Hallak pour l'Institut Veblen, 23 mars 2021 [lien externe]

Le capital, sans rival de Branko Milanović, Blog d'alternatives économiques, 21 mars 2021 [lien externe]

Le racisme comme nudge politique, Blog d'alternatives économiques, 22 février 2021 [lien externe]

Assurance chômage : les non-dits du Conseil d’analyse économique, Alternatives économiques, 16 février 2021 [lien externe]

La famille, de soutien à dépendance, Blog d'alternatives économiques, 15 décembre 2020 [lien externe]

Inégalités sociales devant la garde d’enfant et inégalités de genre sur le marché du travail, Blog d'alternatives économiques, 12 novembre 2020 [lien externe]

La gauche, la question sociale et les questions sociétales, Blog d'alternatives économiques, 20 octobre 2020 [lien externe]

CICE: 100 000 emplois, c’est peu, si seulement ils existent, Blog de Mediapart, 25 septembre 2020 [lien externe]

Plan de relance : comment compenser la baisse des impôts de production ?, Alternatives économiques, 14 septembre 2020 [lien externe]

Inégalités de genre dans le système français d'imposition des revenus, Blog de Mediapart, 4 juillet 2020 [lien externe]

L’idéologie du coût du travail, AOC, 4 mars 2020 [lien externe]

Le cloisonnement du débat sur les retraites est source d’inégalités, Le club Médiapart, 20 février 2020 [lien externe]

La quadrature de la fiscalité locale : équité, efficacité, autonomie, coopération, Horizons Publics, hors série été 2019, Changer le logiciel de l'action publique territoriale, 19 juillet 2019 [lien externe]

Contre les inégalités, redistribuer les revenus est nécessaire mais pas suffisant, AOC média, avec Nathalie Morel, 7 mars 2019 [lien externe]

Entre les dépenses publiques et les impôts, il y a les niches fiscales, Le Monde, 24 janvier 2019 [lien externe]

Pour des sciences sociales unies, mais pas uniformisées, 9 octobre 2018

Pour une défense du matérialisme, la Vie des idées, 27 septembre 2016. [lien externe]

Théorie Lavoisienne de la valeur appliquée au non-deal Bouygues-Orange, 10 avril 2016

Comment agir contre les inégalités ? À propos de : Anthony B. Atkinson, Inégalités (Inequality. What Can Be Done ?), Seuil, la Vie des idées, 28 mars 2016. [lien externe]

Refus de savoir, désir d'agir, 29 janvier 2016

La crise des subprimes 101, 12 janvier 2016

Introduction à la manipulation statistique, pédagogie par l'exemple, 13 novembre 2015

Le rachat de Newen et la confusion entre service public et actionnariat public, 2 novembre 2015

Assumons le dynamisme de nos métropoles, avec Philippe Martin, Le Monde, 30 juin 2015 [lien externe]

Les cinq phases du deuil des politiques publiques, 17 février 2015

Extrême recentrage, le 1 hebdo n° 42, 4 février 2015 [lien externe]

Emploi, ce que l’on pourrait faire au même prix, avec Bruno Palier et Michaël Zemmour, les Echos, 1er décembre 2014 [lien externe]

Optimisation fiscale 101, 24 novembre 2014

Le Capital et son singe, critique théâtrale par un économiste, 14 octobre 2014

Manifeste pour l'analyse néoclassique en sciences sociales, 11 septembre 2014

Dividendes record ou l’utilisation des chiffres sans les comprendre, 24 août 2014

Enseignement : compréhension des mécanismes ou injonction normative ?, 27 juillet 2014

Salaire minimum, emploi et manipulation, 12 juillet 2014

Mieux vaut taxer la rente immobilière que la production, avec Patrick Artus, Antoine Bozio et Cécilia Garcia-Peñalosa, les Echos, 5 novembre 2013 [lien externe]

Pourquoi occuper son propre appartement constitue un revenu en nature, Les invités de Médiapart, 1er octobre 2013 [lien externe]

Le bien-être du patient ne se compte pas en dépassement d’honoraires, Les invités de Médiapart, 18 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund [lien externe]

Halte aux «médecins pigeons» qui agitent le drapeau de la santé publique !, Libération, 15 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund [lien externe]

Vers un autre monde (et donc une autre science économique) ?, Journal du MAUSS, 28 juin 2011 [lien externe]

La réforme de l’assurance chômage tombe le masque

Blog d'alternatives économiques, 15 octobre 2021

Les défenseurs d’une réforme tâchent de la présenter sous un jour favorable, c’est de bonne guerre. Mais cela impose parfois de la présenter sous un jour peu sincère. C’est un euphémisme en ce qui concerne la réforme de l’assurance chômage entrée en vigueur le 1er octobre 2021. Parfois, à force de multiplier les argumentaires, certains finissent pourtant par trahir les véritables intentions de la réforme, parfois moins louables que les déclarations d’intention. C’est, ce me semble, ce que Pierre Cahuc vient de faire dans une tribune publiée le 11 octobre dans le journal Les Échos.

Previously on La réforme du chômage

Le gouvernement avait tenté de faire passer une réforme de l’assurance chômage à l’automne 2020. Il s’agissait de modifier la manière de calculer le salaire journalier de référence des allocataires (nécessaire au calcul de leurs indemnités chômage). La formule proposée baissait drastiquement cette référence (et donc l’allocation chômage) des chômeurs ayant atteint le nombre de jours travaillés permettant d’être indemnisés en plusieurs contrats entrecoupés plutôt qu’en un bloc. Par exemple, avant la réforme, une personne ayant travaillé 4 mois via dix-sept contrats d’une semaine répartis sur dix-sept mois (en décrochant un contrat d’une semaine par mois) avait droit à la même allocation qu’une personne ayant travaillé 4 mois d’affilés. Ayant travaillé (et cotisé) la même chose (4 mois), elles avaient droit à la même allocation chômage. Après la réforme, la seconde gardait son allocation comme avant mais la première voyait son salaire de référence être divisé par quatre (les salaires perçus – 4 mois – étaient divisés par les 17 mois nécessaires pour les obtenir). Le Conseil d’État avait jugé que ceci constituait « une différence de traitement manifestement disproportionnée » puisque, « Du fait des règles qui ont été retenues, le montant du salaire journalier de référence peut désormais, pour un même nombre d'heures de travail, varier du simple au quadruple en fonction de la répartition des périodes d'emploi au cours de la période de référence d'affiliation de 24 mois. » (pour plus de détails sur ce mécanisme, voir mon billet de mai dernier sur le sujet).

Le gouvernement est revenu à la charge au printemps dernier, sans modifier le principe général mais uniquement en plafonnant la perte en termes de salaire journalier de référence à 43 %. Le Conseil d’État n’avait alors pas répondu sur le fond (le baisse d’une variation du simple au quadruple à une variation quasiment du simple au double est-elle suffisante pour que ce ne soit plus considéré comme une différence de traitement disproportionnée ?), se contentant de dire que la période de crise pandémique n’était pas propice à une baisse des allocations chômage. Considérant visiblement la crise pandémique finie (en tout cas pour ce qui concerne l’emploi) le gouvernement a annoncé le 30 septembre que cette réforme prenait effet le 1er octobre.

Débats autour de l’équité de la réforme

Ce retour de la réforme a créé un nouveau débat sur ses effets. Le gouvernement défend cette réforme dans une note en arguant que « les règles actuelles de l’assurance-chômage consolident l’expansion des contrats courts car elles permettent à de nombreux actifs d’accepter de tels emplois alors qu’ils sont pourtant insuffisants à leur assurer à eux seuls un niveau de vie décent. » L’idée étant donc que diminuer les allocations chômage (pour un même temps de travail avant chômage) pour ceux qui l’obtiennent via plusieurs contrats courts les inciteraient à chercher des contrats plus stables. Pour ce faire, le gouvernement cite quatre articles académiques mais en lisant réellement ces articles, on note qu’ils ne soutiennent pas du tout (parfois même au contraire) la position du gouvernement, comme le détaille une récente tribune d’économistes.

Toutefois, les économistes ne sont pas unanimes et certains défendent cette réforme, allant même jusqu’à dire que c’est en fait pour des raisons d’équité et de justice qu’il faudrait la mettre en place. Pour autant, pour arriver à défendre cette position de justice, ils ont besoin de ruser fortement. Il leur faut tout d’abord créer un cas-type de chômeur qui est au mieux très marginal dans la population des personnes concernées par les réformes : un ultra-précaire ultra-optimisateur. Il s’agirait de quelqu’un ayant tout pouvoir sur ses contrats de travail mais qui déciderait de travailler seulement une semaine par mois pendant dix-sept mois pour obtenir quatre mois d’indemnités chômage. Pourtant, même avec ce cas-type assez peu réaliste, ils ne peuvent défendre le caractère injuste du système précédent (et donc le caractère juste de le réformer) qu’en comparant 30 jours de chômage avec 7 jours de travail (en disant que ces 30 jours de chômage rapportent plus), comme l’a expliqué Mathieu Grégoire.

La question des comportements

C’est à ce moment que Pierre Cahuc, après avoir signé la tribune remarquant que 30 jours de chômage pouvaient être supérieurs à 7 jours de travail, a publié une nouvelle tribune. Il ne cite pas directement la réforme du chômage mais l’intitule « Assurance-chômage : les règles d'indemnisation n'ont rien d'anodin » et y présente les résultats d’un article publié l’année dernière dans le Quarterly Journal of Economics. La phrase d’entête de cette tribune (Les paramètres de l’assurance chômage ont un impact objectivable sur les comportements des demandeurs d’emploi et des entreprises sur le marché du travail) rappelle fortement l’argument mobilisé par le gouvernement dans sa note utilisant à l’envers les quatre articles scientifiques (cf. ci-dessus) : « La durée et le montant des indemnités chômage ont des conséquences directes sur le comportement des demandeurs d'emploi ». Certes, l’indemnisation du chômage peut avoir des effets sur les comportements, mais quels effets ? Des effets tels que la réforme qui vient d’être mise en place pourrait améliorer la situation ? Bien au contraire !

Un des résultats présentés dans cet article du Quarterly Journal of Economics est que « l’effort de recherche d’emplois » d’un individu au chômage augmente avec l’approche de la fin de sa période d’indemnisation, ce qui fait écrire à Pierre Cahuc : « Une indemnisation plus généreuse accroît la durée du chômage, mais incite, en contrepartie, les chômeurs à accepter des emplois de moins bonne qualité, moins bien rémunérés. » Pourtant, si la première partie de la phrase semble concorder avec l’article présenté, la seconde est en fait en totale opposition aux résultats rapportés par les auteurs. Car en réalité ce qui est appelé « l’effort de recherche d’emplois » dans l’article est mesuré par le nombre de candidatures déposées par le chômeur. Ce nombre croît donc quand on s’approche de la fin de la période d’indemnisation. Toutefois, ce nombre de candidatures peut augmenter non seulement en raison d’un effort de recherche effectivement plus important, mais il peut aussi augmenter du fait d’un effort identique associé à une moindre exigence quant aux types d’emplois recherchés (baisser les exigences permet en effet de répondre à un plus grand nombre d’offres en ajoutant des offres de moindre qualité).

Il se trouve que c’est justement ce que trouve l’article. En effet, il montre que le salaire visé par le chômeur en recherche d’emploi diminue au fur et à mesure qu’il s’approche de la fin de sa période d’indemnisation. Plus que cela, cette baisse du salaire visé passe non seulement par des réponses pour des emplois avec des salaires horaires plus faibles mais aussi pour des emplois à temps plus partiel et à plus d’emplois à durée déterminée. C’est-à-dire que contrairement à ce qu’écrit Pierre Cahuc à propos de cet article, son interprétation devrait plutôt être qu’une indemnisation plus généreuse accroît la durée du chômage, mais incite, en contrepartie, les chômeurs à rechercher des emplois de meilleure qualité, mieux rémunérés, plus stables et à temps plus complets.

* *

*

Ainsi, cet article si opportunément mis en avant au moment de l’entrée en vigueur de la réforme du chômage, indique (à l’inverse de ce qui est prétendu par la personne qui en fait la promotion) qu’une moindre indemnisation du chômage (ce qui est l’objet de la réforme de l’assurance chômage qu’elle défend) devrait conduire les chômeurs à accepter plus facilement des CDD et particulièrement des CDD à temps partiel. Soit l’exact opposé de ce qui a été présenté dans l’exposé des motifs de cette réforme du chômage. En fait, on peut se demander si ce n’est pas l’autre effet, bien établi par cet article, qui serait en réalité attendu et espéré : la baisse des salaires. Cette réforme serait alors simplement une nouvelle forme de politique de baisse du coût du travail, mais cette fois ci le prix serait directement payé par les salariés les plus précaires.

[retour ; haut de page]

Assurance chômage : le gouvernement ne peut pas se prévaloir de la science économique pour justifier sa réforme

, avec Baptiste Françon, Hugo Harari-Kermadec, Sabina Issehnane, Camille Signoretto et Michaël Zemmour

Le club de Médiapart, 8 octobre 2021

La réforme de l’assurance chômage, dont le décret est paru au journal officiel le 30 septembre 2021 pour s’appliquer dès le lendemain, a une longue histoire malgré cette tentative précipitée d’application. Une première version a été annulée le 25 novembre 2020 par le Conseil d’État, car l’importante baisse de l’allocation de retour à l’emploi qu’elle prévoyait pour certains allocataires était jugée portant « atteinte au principe d’égalité ».

Le gouvernement a depuis modifié le texte, non sur le fond mais à la marge, en plafonnant la perte pour les plus désavantagés. Le plafonnement reste toutefois limité puisqu’il autorise jusqu’à 43 % de baisse du salaire journalier de référence servant de base de calcul à l’indemnisation du chômage. Le juge des référés a cependant suspendu en juin 2021 cette nouvelle mouture sans la juger sur le fond, au motif de la situation de crise.

Le gouvernement relance donc aujourd’hui sa mise en application. Le décret paru est accompagné d’une note argumentaire[1] qui prétend fonder la réforme sur la littérature en science économique, ce que nous contestons dans le présent texte. En effet, compte tenu des enjeux sociaux importants (la baisse très significative des indemnités chômage pour plus d’un million de chômeurs, comme souligné par l’étude d’impact de l’UNEDIC), on est en droit d’attendre que le gouvernement produise des études économiques dont les conclusions étayent le raisonnement du gouvernement et qui correspondent à la réalité de la réforme. Or ce n’est pas le cas des travaux cités comme nous le montrons ici.

La note du gouvernement se base sur deux arguments :

• la reprise est en cours puisque nous connaissons « un vif rebond de l’emploi » et que même « des difficultés de recrutement importantes apparaissent dans l’industrie, le bâtiment et une partie des services » ;

« la réforme de l’assurance chômage (...) vise notamment à résoudre ce désajustement structurel entre offre et demande de travail », parce que « les règles actuelles de l’assurance-chômage consolident l’expansion des contrats courts car elles permettent à de nombreux actifs d’accepter de tels emplois alors qu’ils sont pourtant insuffisants à leur assurer à eux seuls un niveau de vie décent. »

Le premier point est défendu grâce aux différentes notes de conjonctures de l’INSEE et de la Banque de France. Même si l’objet de cet article n’est pas de discuter de cette dimension, rappelons que toutes catégories confondues 6,7 millions de demandeurs d’emploi sont inscrits à Pôle emploi et que ce chiffre n’a que très peu évolué ces derniers mois (- 2700 inscrits de mai à juillet 2021). Les demandeurs d’emploi en activité réduite, en particulier la catégorie B c’est-à-dire ceux qui effectuent une activité de courte durée, ont connu une hausse, or ce sont les premiers concernés par la réforme de l’assurance chômage. L’évolution à la baisse du nombre de chômeurs de catégorie A s’explique en partie par les transferts importants vers la catégorie D du fait de l’entrée en formation. Alors que le taux de pauvreté des personnes au chômage avoisine déjà les 40%, cette réforme risque de l’accroître encore, tout en accentuant les inégalités dans le système d’emploi.

En outre, le nombre de foyers allocataires du RSA reste nettement plus élevé en 2021 qu’en 2019, et après un semestre de baisse continue du nombre d’allocataires qui avait connu un pic en novembre 2020, on assiste au mois de juillet à un rebond important qui pourrait encore s’amplifier dans les mois à venir, du fait de la fin des dispositifs exceptionnels de crise depuis cet été (prolongation des droits au chômage jusqu’en juin, aide exceptionnelle de 900€ jusqu’en septembre). Ce signal d’alerte sur la situation sociale en France s’accompagne d’une autre évolution, celle de la croissance du nombre de chômeurs de longue durée. Désormais, plus de la moitié des demandeurs d’emploi des catégories A, B et C sont des chômeurs de longue durée et leur ancienneté au chômage a également augmenté, notamment en raison de la crise sanitaire.

En ce qui concerne le second point, la note de présentation de la réforme tente de le faire passer pour une évidence scientifique, en réquisitionnant de manière partielle et partiale, voire biaisée, quelques éléments de littérature économique académique. L’argument défendu est que « les paramètres de l’assurance chômage ont un impact objectivable sur les comportements des demandeurs d’emploi et des entreprises sur le marché du travail ». Sur ce point, il existe certes une abondante littérature. Pour autant, non seulement « objectivable » ne veut pas dire substantiel, mais surtout cela ne préjuge pas du sens de l’effet qu’auraient les modifications spécifiques prévues par la réforme. De ce point de vue, le choix des deux duos d’articles supposés défendre cette thèse n’apporte pas d’éléments de preuve très rassurants.

Le premier duo d’articles[2] atteste, selon le gouvernement, que les modalités actuelles de l’assurance chômage « déresponsabilisent les entreprises et les désincitent à prendre en compte le niveau de vie de leur salarié et le coût qu’elles font peser sur les comptes de l’assurance chômage lorsqu’elles ont fréquemment recours aux contrats très courts. » Ainsi, l’objectif serait de pénaliser les salariés passant par des épisodes de chômage pour que les entreprises prennent en compte leur niveau de vie. Pourtant, les deux articles cités sont loin de défendre l’idée que la tentative gouvernementale aboutirait à cet objectif. Le premier indique que « le travail de terrain montre combien les employeurs (...) ne se sentent pas concernés par l’indemnisation du chômage ». Le second papier mentionne que les salariés qui travaillent sous des formes particulières d'emploi souhaiteraient travailler plus et font effectivement des recherches en ce sens. Ce que reconnaît d’ailleurs la note gouvernementale puisqu’elle explique les difficultés de recrutement dans certains secteurs par le fait que « les conditions de travail, à savoir notamment une succession de contrats courts, sans horizon de carrière ou de progression salariale, sont peu attractives. »

À l’opposé de cet argumentaire alambiqué du gouvernement, un grand pan de la littérature, et notamment l’article de Carole Tuchszirer déjà cité, appuie le fait que diminuer l’indemnisation du chômage réduit le pouvoir de négociation des travailleurs et les incite encore plus à accepter des emplois aux conditions dégradées. Or, c’est bien ce que fait cette réforme puisque si certains allocataires sont plus perdants que d’autres, personne ne gagne au nouveau mode de calcul du salaire journalier de référence. Ceci semble aller totalement à l’encontre des objectifs affichés par le gouvernement : dans sa note de présentation, il critique les modalités actuelles de l’assurance chômage car « elles réduisent la capacité de négociation des salariés, qui ne peuvent plus discuter des conditions offertes (horaires, durée du contrat, salaire). » Mais il préconise une réforme consistant à réduire encore plus ce pouvoir de négociation en diminuant leur allocation chômage s’ils refusent ces mauvaises conditions.

Le second duo d’articles[3]cités en appui de l’argumentaire gouvernemental concerne deux documents de travail non encore publiés. Le premier prouverait selon le gouvernement que les salariés et les employeurs peuvent s’entendre sur les durées de contrats. Toutefois, le cadre d’analyse est difficilement transposable au cas de la réforme présente puisqu’il s’agit d’un mécanisme pouvant augmenter l’indemnisation chômage des salariés de plus d’un an d’ancienneté dans le cadre d’un licenciement économique. Or, le licenciement économique est une procédure très encadrée (bien plus que la signature de CDDs) dans laquelle entrent en jeu les représentants syndicaux et pour laquelle on comprend bien comment la négociation peut amener à retarder certains licenciements de salariés proches d’atteindre cette ancienneté ouvrant droit à une meilleure indemnisation. On voit mal comment une telle étude permettrait de conclure quoi que ce soit sur la faculté des salariés précaires enchaînant les contrats courts à négocier des allongements de leurs contrats du fait de la réforme de l’assurance chômage.

La seconde étude quant à elle analyse bien le passage initial de 6 mois à 4 mois de la durée de travail nécessaire pour avoir droit à l’assurance chômage (qui est une des mesures de la réforme actuelle). Toutefois, la réforme en question a eu lieu en 2009, en réponse à la crise économique, dans un contexte où celle-ci a accéléré une chute de la durée des contrats, et notamment ceux de moins d’un mois. La réforme s’inscrit donc dans cette évolution, et ne peut être considérée comme la cause de la diminution de la durée des contrats à durée déterminée (CDD). De plus, les personnes principalement concernées par les modifications du calcul du salaire journalier sont des personnes enchaînant des contrats bien plus courts que 4 mois, parfois des contrats à la journée, le plus souvent de manière contrainte. On voit mal comment la baisse des CDD de 6 mois relativement aux CDD de 4 mois pendant la crise des subprimes prouve que diminuer substantiellement leur allocation de retour à l’emploi permettrait aux travailleurs enchaînant en 2021 des contrats très courts d’augmenter leur chance de trouver un emploi stable.

Il apparaît donc à la lecture de cette note de présentation que le gouvernement instrumentalise quelques travaux académiques en les interprétant d’une manière qui déforme leurs réelles contributions scientifiques, dans le but de donner à sa réforme un vernis scientifique. Ce procédé est néfaste pour le débat public qu’il biaise en tentant d’user d’arguments d’autorité scientifique. Il est également néfaste pour la recherche académique qu’il décrédibilise en l’utilisant de manière erronée.

[1]Note de présentation du projet de décret actant l’entrée en vigueur au 1er octobre 2021 des nouvelles modalités de calcul des indemnités chômage, transmise aux membres de la CNNCEFP, jeudi 16 septembre 2021. Voir ici. Pour voir la note dans son intégralité, cliquez ici

[2]Kornig, C., & Recotillet, I. (2016), “Transition chômage-emploi : employeurs et demandeurs d'emploi face à l'activité réduite”, Céreq Echanges, p. 127-140 ; Tuschszirer C. (2000), ‘The impact of unemployment insurance on employment norms and income levels: the inevitable drift into 'reduced activity‘’, Transfer: European Review of Labour and Research, 6 (4), p. 592-611.

[3]Khoury, L. (2021). Unemployment Benefits and the Timing of Redundancies. Working paper Paris School of Economics N° 2019 – 14 ; Khoury, L., Brébion, C., & Briole, S. (2020). Entitled to Leave: the Impact of Unemployment Insurance Eligibility on Employment Duration and Job Quality. NHH Dept. of Economics Discussion Paper, (01).

[retour ; haut de page]

Mon ennemi, est-ce vraiment la Finance ?

Blog d'alternatives économiques, 8 septembre 2021

L’objet de ce billet n’est pas de discuter si le fait de pointer la finance – ou les financiers – comme cause de nos maux est ou non un appel du pied à ceux qui cherchent à stigmatiser des groupes de personnes sous des stéréotypes liés à cette activité. Le fait de pointer la finance est relativement répandu – un ancien président en avait fait un slogan de campagne – même sans arrière-pensée antisémite. D’autant plus que le contexte politico-économique des quatre dernières décennies a vu une forme de convergence des pays industrialisés vers des régulations néolibérales du capitalisme, donnant lieu à ce que certains appellent le capitalisme financiarisé. Mon but ici est d’argumenter que quand on accuse l’hypertrophie de la finance dans notre capitalisme actuel, on confond le symptôme avec la cause. Certes, quand on ne sait pas guérir une maladie, il peut être utile de traiter les symptômes en espérant que cela donne le temps à l’organisme de se guérir lui-même. Il n’en reste pas moins que si on veut se libérer définitivement des symptômes, mieux vaut, si on en a les moyens, s’attaquer directement à leur cause.

Le capitalisme financiarisé, une réponse à la perte des gains de productivité

Le retour de ce débat sur la finance me rappelle une analyse que je crois très pertinente du regretté Michel Husson dans le livre qu’il a écrit avec Alain Bihr en critique de Capital et Idéologie de Thomas Piketty. Il y présente son interprétation de la fin de la période sociale-démocrate à l’issue des trente glorieuses et de la mise en place de la période néolibérale que nous vivons depuis. L’objet est de contredire Thomas Piketty sur sa vision de la social-démocratie mais cette présentation me semble utile pour le sujet de ce billet.

Après avoir présenté plusieurs indicateurs permettant de constater la baisse des gains de productivité pendant les années 1970 et leur maintien à un faible niveau depuis, Michel Husson montre qu’en revanche les taux de profits sont vite remontés après la crise pétrolière pour se stabiliser à un niveau élevé. Pour lui, cette baisse des gains de productivité, qui est une cause matérielle, a forcé le capitalisme à se modifier dans le but de maintenir la rentabilité du capital. Ceci s’est fait à travers une modification du partage de la valeur entre capital et travail, au détriment du travail. La baisse de la part du travail s’est concrétisée directement par des baisses de salaires (ou des hausses inférieures aux faibles gains de productivité) ainsi que par la remise en cause de la générosité de la protection sociale (les deux pouvant être liées, comme je le rappelais dans mes billets sur les réformes de l’assurance chômage ici, ici et ).

La baisse des gains de productivité limitant les opportunités d’investissements productifs rentables, les profits (maintenus grâce à la diminution des salaires) ont été distribués et non réinvestis. Ce pouvoir d’achat des actionnaires n’a pas alimenté une augmentation de leur consommation : ils l’ont placé auprès d’intermédiaires financiers sans que cela ne se traduise in fine en investissements productifs ; cela a alimenté des produits financiers toujours plus complexes, et l’augmentation des cours boursiers. La libéralisation des activités financières a également permis de maintenir la consommation des ménages non-actionnaires malgré la baisse des salaires, avec comme effet secondaire des crises de surendettement des ménages comme la récente crise des subprimes. Selon cette interprétation, la financiarisation ne serait pas la cause profonde de nos problèmes, mais un symptôme de ces problèmes en réalité causés par la baisse des gains de productivité dans un système de production capitaliste.

Les gains de productivité sont-ils cachés ?

Les principales contestations de ce type d’analyse avancent que la croissance actuelle, plus riche en innovations, est sous-estimée statistiquement. Pour ce faire, elles se reposent sur des arguments développés par Philippe Aghion et ses coauteurs (voire notamment son résumé synthétique coécrit avec Antonin Bergeaud). L’idée est que la mesure de la croissance ne prend pas assez en compte les gains en qualité. En effet, pour pouvoir mesurer la croissance réelle, les comptabilités nationales doivent corriger de l’inflation les chiffres des valeurs produites : si on produit exactement les mêmes biens en les vendant 10 % plus cher, on obtient une hausse de 10 % des valeurs marchandes correspondant en réalité à une croissance nulle.

Calculer l’inflation des produits à qualité constante est relativement aisé, il faut relever l’évolution des prix. En revanche, il est plus complexe de mesurer cette évolution en parallèle d’une augmentation de la qualité. En général, ce que font les instituts de statistiques est qu’à chaque période, ils mesurent l’inflation via la différence de prix avec la période précédente pour les produits déjà existants, et mesurent la qualité des nouveaux produits par la différence de prix – à la dernière période – avec les anciens produits. L’argument d’Aghion est que l’innovation permet de faire augmenter le rapport qualité-prix des produits, et que donc cette méthode – considérant implicitement un rapport qualité-prix constant – sous-estime les gains en qualité. Estimant ce rapport qualité-prix grâce à un modèle théorique appliqué à l’évolution des parts de marché des entreprises, il estime la croissance cachée à 0,6 point de PIB annuel aux États-Unis et à 0,5 point en France.

Pour autant, je ne crois pas que cette contestation de l’interprétation de Husson tienne, pour deux principales raisons. La première est que si l’argument de Philippe Aghion est valide, il est loin d’être certain et on peut lui opposer un contre-argument. Il suppose que l’évolution des parts de marchés des entreprises innovantes – dans un relatif court-terme – représente bien les gains qualitatifs permanents de la production. C’est donc penser que l’évolution des parts de marché ne peut pas être due à un attrait de la nouveauté pour la nouveauté, générant au moment de l’innovation une forte augmentation de la demande mais ne constituant pas en réalité une amélioration pérenne du niveau de vie des consommateurs (ou qui en constitue une amélioration moindre que ce qui ressort de l’engouement initial des acheteurs). De même, on peut supposer qu’avec l’avancée technologique, les vieilles technologies sont soldées en dessous de leur valeur réelle, induisant une mesure de l’inflation inférieure à ce qu’elle est vraiment.

La seconde raison est que même si cette croissance cachée était réelle, les estimations de Philippe Aghion (qui remontent à 1983 pour les États-Unis et 1994 pour la France) ne décèlent aucune variation dans cette croissance cachée le long de la période d’estimation. Ainsi, si on rajoute la même croissance cachée à toutes les années, le profil de la croissance totale (mesurée plus cachée) garde la même pente que celui de la croissance mesurée, avec juste un décalage vers le haut : la baisse des gains de productivité persiste et avec elle l’interprétation de Michel Husson.

Progrès monétisables versus développement humain

Une autre possibilité sur la dichotomie entre les progrès technologiques qui semblent perdurer et l’atonie des gains de productivité est que dans une économie de services, le progrès se constitue en gains de développement humain qui échappent partiellement au marché, et sont ainsi mal mesurés par le PIB. Philippe Aghion et Antonin Bergeaud citent « le temps passé sur les réseaux sociaux ou celui gagné en faisant ses courses en ligne ». On peut y ajouter nombre de services directs aux personnes dont les gains en qualité ne sont pas valorisés par les marchés. Nous avons ainsi vu pendant la pandémie le caractère essentiel de nombre de services pourtant si mal rémunérés. Bien que la qualité de ces services ait crû – grâce notamment à l’incorporation des technologies dans leur prestation – le fait qu’ils restent si bon marché ne permet pas de transformer ces gains qualitatifs en valeur marchande. Or, c’est sur les gains de productivité marchands que se fonde l’argument de Michel Husson, car c’est bien des gains de productivité marchands qu’on peut tirer les profits des actionnaires et les salaires des salariés.

Il en va globalement de même des arguments en termes de développement humain. De nombreux chercheurs en sciences sociales plaident pour le remplacement du PIB par des indicateurs de développement humain (prenant en compte l’espérance de vie, le niveau d’éducation, ainsi que des facteurs environnementaux notamment). Il est indéniable que ce qui compte pour les populations, c’est le développement humain ; mais ce qui compte pour la stabilité du système capitaliste, ce sont les gains de productivité marchands. Si les améliorations à venir pour les conditions de vie sont à attendre d’activités hors marché, on peut se demander l’intérêt de s’accrocher à un système de production capitaliste pour y parvenir.

On pourrait imaginer un système mixte, gardant des mécanismes de marché pour les biens et services traditionnels en faible croissance, assortis d’un système hors-marché pour les améliorations profondes des conditions de vie. Cela se heurterait probablement à l’élan de marchandisation forcené du capitalisme. Car en effet, le capitalisme a besoin d’accroître en permanence le périmètre de ses activités, et c’est d’autant plus vrai dans une période de faibles gains de productivité : on va chercher dans l’expansion des types d’activités soumises aux marchés ce qu’on ne gagne plus dans l’accroissement de la productivité des activités classiquement marchandes.

Et d’ailleurs, les dernières décennies ont connu, en parallèle de l’expansion financière, une très forte expansion de ce qui relève des marchés. La régulation néolibérale du capitalisme, outre la forte libéralisation financière, est marquée par une forte marchandisation de l’intervention publique, les deux n’étant d’ailleurs pas sans lien : Nathalie Morel, Chloé Touzet et Michaël Zemmour ont récemment montré comment l’utilisation croissante des subventions fiscales dans les politiques sociales a permis non seulement de participer à la baisse du coût du travail mais également à déplacer des fonds publics des caisses de sécurité sociales vers des fonds assurantiels privés.

* *

*

Toutes ces questions mériteraient d’être approfondies, mais ce qui j’espère ressort de ce billet est que la finance n’est pas un problème isolé, une excroissance de notre système productif qui viendrait en amoindrir les capacités. L’hypertrophie financière est au contraire une conséquence de problèmes plus globaux et plus profonds que rencontre le capitalisme. Pour soigner nos symptômes, ce n’est pas que la finance qu’il faut réformer mais l’ensemble de notre système économique.

[retour ; haut de page]

Les aides aux personnes en perte d’autonomie sont des soins paramédicaux

Le Monde, 4 juin 2021

Après la création formelle de la cinquième branche de la sécurité sociale l’automne dernier, il est plus que temps de lui fournir un contenu. Depuis des années, voire des décennies, chaque nouveau gouvernement annonce un grand plan de prise en charge de la perte d’autonomie liée au vieillissement de la population, et on attend toujours.

Il n’est plus utile de rappeler qu’il s’agit d’un besoin croissant, essentiel pour un nombre toujours plus grand de personnes âgées. La perte d’autonomie a aussi des répercussions importantes pour d’autres personnes. La prise en charge pèse sur les carrières professionnelles des aidants familiaux, le plus souvent les filles. Le vieillissement de la population est également un déterminant majeur de la croissance du recours aux services hospitaliers, qui peinent à répondre aux besoins.

Il y a près de 20 ans était créée l’Allocation personnalisée d’autonomie, prise en charge partielle des dépenses afférentes au plan d’aide défini par une équipe médico-sociale. L’esprit en était le remboursement de soins prescrits, sur le modèle médical. Mais les restes à charge continuent de mener au renoncement aux soins. Depuis, les politiques publiques se sont concentrées sur l’élargissement des crédits d’impôts, mêlant les soins avec les services de confort comme le ménage et le jardinage pour les personnes valides. L’espoir est que le besoin soit tel qu’il suffise d’un peu huile de subvention dans les rouages pour que la machine se mette en route. Un rapport de l’Inspection générale des finances de 2008 annonçait même qu’on allait pouvoir régler en même temps la question de la prise en charge de la perte d’autonomie et celle du chômage de masse, et ce sans coût pour les finances publiques.

Force est de constater que ça n’a pas marché : les dépenses publiques sont loin d’être négligeables mais, surtout, ces extensions ont eu un effet très faible, voire nul, sur les créations d’emploi (voir, notamment, cet article de la revue Travail et emploi). Or, si les emplois – et donc l’activité – n’ont pas été créés, cela signifie que de nombreuses personnes en perte d’autonomie n’ont pas pu bénéficier des services dont ils ont pourtant besoin.‬‬‬

De plus, ces politiques sont très inégalitaires. Les plus fortunés sont bien plus nombreux à consommer des services à la personne et à bénéficier des subventions fiscales ; cette inégalité s’observe aussi pour les personnes les âgées. Cela explique le faible impact des mesures fiscales : les plus aisés auraient consommé ces services même sans les crédits d’impôt et leur prix, même après réduction par les dispositifs fiscaux, reste hors de portée des plus modestes.

Or, les plus modestes ont grand besoin de ces soins. Si les inégalités sociales d’espérance de vie se maintiennent à un très haut niveau, les inégalités d’espérance de vie en bonne santé sont encore bien plus grandes : les plus modestes vivent moins longtemps en moyenne mais passent une plus grande partie de leur vie avec pertes d’autonomies et incapacités.

Il est donc primordial de développer un accès aux services d’aide à domicile pour tous, un véritable service public de la prise en charge de la perte d’autonomie. En effet, il s’agit bien de soins paramédicaux qui entrent en interaction forte avec l’ensemble de notre système de santé. L’accès à ces services diminue le risque d’être hospitalisé pour perte d’autonomie au décours d’un passage aux urgences (voir, notamment, cet article de BMC Geriatrics). Même en amont, la présence d’aides à domicile permet au SAMU d’organiser le soin chez les patients plutôt que de les orienter vers les services d’urgence.

Comme pour les autres services de santé, le mode de production peut être public (comme les services hospitaliers) ou privé (comme les soignants libéraux), mais il est essentiel que l’organisation et la prise en charge permettent un accès universel à ces soins. On peut aussi se reposer sur le secteur associatif, déjà très présent dans cette activité, mais il importe de lui donner les moyens de remplir sa mission dans les meilleures conditions pour les patients et pour les soignants.

La recherche d’économies permanentes pèse sur les rémunérations de ces travailleuses essentielles, sur leurs conditions de travail et leur santé, et in fine sur la qualité des services. Ces conditions de travail conduisent à une nouvelle forme de domesticité (voir notre livre, Le retour des domestiques, avec Nathalie Morel). Il ne faut pas se méprendre, la domesticité ne se situe pas dans les tâches effectuées, mêmes si beaucoup sont dures et pénibles. La domesticité réside dans la relation entre les travailleuses et leurs employeurs.

Bien sûr, un tel plan de prise en charge des besoins de santé de nos aînés serait coûteux. Ce coût peut être vu comme le revers de la médaille des progrès de nos sociétés, dont la richesse collective a permis des gains de conditions et d’espérance de vie. Pourtant, les possibilités de financement existent. Nous diminuons les impôts des plus aisés alors que nous avons tant besoins de fonds publics. Nous dépensons aussi énormément de manière inefficace des sommes qui pourraient être utilement réallouées. Nous avons recensés plus de 60 milliards par an de dépenses socio-fiscales visant à faire baisser le coût du travail, avec un effet sur l’emploi négligeable voire nul pour une majeure partie (voir, notamment, cet article du Cambridge Journal of Economics).

Notre société continue de s’enrichir malgré les crises, mais cette richesse collective est de moins en moins partagée. Les inégalités remontent et celles devant le vieil âge particulièrement. La crise sanitaire a montré le coût social du manque de moyens accordés à l’hôpital public, ne faisons pas la même erreur pour l’organisation des soins destinés aux personnes âgées en perte d’autonomie.

[retour ; haut de page]

Précariser toujours plus la main d’œuvre

Blog d'alternatives économiques, 26 mai 2021

La réforme de l’assurance chômage, interrompue pendant la crise sanitaire, revient en force dès avant la fin de cette crise. On avait pressenti le retour des hostilités lorsque le CAE avait remis sur la table la détérioration de l’indemnisation sous l’argument de mettre en place un taux de remplacement dépendant du cycle économique (cf. un article dans alternatives économiques et un billet en deux parties ici et ). Le gouvernement a annoncé la reprise du calendrier avec une nouvelle étape baissant les prestations par la modification du calcul du salaire servant de référence à l’indemnisation. Cette réforme est défendue sous deux arguments que l’on retrouve clairement édictés dans la présentation de la réforme sur la page du ministère du travail :

  • lutter contre la précarité liée à la hausse des contrats courts (le nombre de CDD de moins d’1 mois a augmenté de 250% en 10 ans, alors que l’activité n’a augmenté que de 15%)
  • supprimer des injustices dans le mode d’indemnisation
  • On ne peut évidemment que souhaiter « supprimer des injustices », mais la quasi-totalité des syndicats vient justement de déposer un recours au Conseil d’État au motif que c’est au contraire la réforme qui serait injuste. De même, on ne peut qu’adhérer à la lutte « contre la précarité liée à la hausse des contrats courts », mais il y a de bonnes raisons de penser que cette réforme augmentera plutôt que ne réduira cette précarité. Un détournement de la réalité n’est pas forcément surprenant : on ne vend pas une réforme en disant qu’elle est injuste et va augmenter la précarité. Pour autant, le degré d’hypocrisie atteint ici est vraiment très élevé.

    Modification de la détermination du revenu

    Le principe général de l’indemnisation du chômage (l’ARE pour Allocation de Retour à l’Emploi) est qu’on y a droit (sauf cas dérogatoires) si on a travaillé au moins 6 mois au cours des 24 mois précédents (la condition est passée à 4 mois pendant la pandémie mais reviendra à 6 mois). Ensuite, l’allocation dépend du salaire journalier de référence. Celui-ci était calculé sur les jours effectivement travaillés et la réforme prévoit de le calculer sur tous les jours – travaillés ou non – entre le premier et le dernier jour travaillé de la période.

    Deux choses apparaissent immédiatement : premièrement, l’introduction de jours à salaire nul dans le calcul ne peut que baisser ce salaire de référence. Ainsi, personne n’y gagne et certains y perdent. Cette réforme est donc bien une baisse – différente selon les profils – de l’indemnisation du chômage. L’Unédic (l’association qui gère l’assurance chômage en France) évalue qu’une fois retourné à la condition de 6 mois et la crise sanitaire finie,[1] la réforme fera économiser 1 milliard d’euros par an aux budgets sociaux, en réduisant d’autant l’indemnisation des chômeurs.

    En soit, cela ne signifie pas que la réforme échoue à « supprimer des injustices », mais soyons clairs : si elle le fait, c’est uniquement à la baisse. Toutefois, puisqu’il est question d’injustices, il apparaît directement qu’une personne ayant travaillé 6 mois entrecoupés sur les deux dernières années sera moins bien indemnisée qu’une personne ayant travaillé 6 mois d’affilé sur la même période. J’ai personnellement du mal à comprendre en quoi cela réduit des injustices. D’ailleurs, sur ce point, le Conseil d’État avait censuré la version initiale de cette réforme :

    Du fait des règles qui ont été retenues, le montant du salaire journalier de référence peut désormais, pour un même nombre d'heures de travail, varier du simple au quadruple en fonction de la répartition des périodes d'emploi au cours de la période de référence d'affiliation de 24 mois. Il en résulte (...) une différence de traitement manifestement disproportionnée au regard du motif d'intérêt général poursuivi. Dès lors, les dispositions de l'article 13 du règlement d'assurance chômage annexé au décret attaqué portent atteinte au principe d'égalité.

    Du fait de cet avis du Conseil d’État, le gouvernement a quelque peu modifié le dispositif pour limiter l’aspect inégalitaire. Mais cette modification se contente d’ajouter un mécanisme de plafonnement de la perte due à la réforme, tout en conservant le principe de base : les effets inégalitaires sont donc globalement conservés mais juste limités pour les cas les plus défavorables. L’Unedic estime ainsi dans son évaluation d’impact de la réforme que sur les 1,15 million d’allocataires dont les indemnités baisseraient du fait de la réforme, 365 000 verraient leur perte limitée par ce mécanisme de plafonnement et ne subiraient une baisse « que » de 43 % de leur salaire journalier de référence.

    L'argument habituel de l'aléa moral

    Le premier argument de correction des injustices n’est pas convaincant, le second de limitation des contrats courts ne l’est pas plus. Le mécanisme attendu est toujours le même de la part des réformateurs néolibéraux : l’aléa moral. Le chômage existerait parce que les chômeurs ne voudraient pas travailler mais préfèreraient rester assistés. De même, les contrats courts seraient la faute des travailleurs précaires qui favoriseraient ces emplois irréguliers pour bénéficier de la générosité des systèmes sociaux. C’est évidemment contraire à la réalité : ce n’est qu’un argument rhétorique pour justifier la précarisation toujours plus grande des travailleurs les moins favorisés.

    D’ailleurs, deux notes sont sorties parallèlement à l’annonce de cette réforme, qui étudient ces fameux contrats courts, leur évolution et les raisons de leur existence et de leur croissance. L’une est publiée par le CEET (Centre d’études de l’emploi et du travail) et l’autre émane de la DARES elle-même, la direction d’étude du ministère du travail qui porte le projet de réforme en question. Les deux notes sont assez convergentes pour dire que l’usage des contrats courts est avant tout subi par les salariés, ce qui implique que les pénaliser en réduisant leur assurance chômage ne permettrait pas d’en diminuer le nombre.

    D’ailleurs, une grande part des travailleurs en contrats courts ne sont pas éligibles du tout à l’indemnisation du chômage car ils sont soit étudiants, soit retraités, soit en cumul d’une autre activité, soit ont déjà épuisé leurs droits et ne les ont pas encore rechargés. Parmi les éligibles, tous n’ont d’ailleurs pas recours à l’indemnisation de leurs périodes de chômage. Ainsi, sur les 3,7 millions d’allocataires sur la période étudiée, 1,5 millions travaillaient en parallèle mais seulement 434 000 sur des contrats courts et à peine 279 000 étaient indemnisés.

    La croissance des contrats courts a en réalité plusieurs causes, toutes indépendantes d’éventuels « abus » des allocataires. Tout d’abord, ils sont très présents dans les secteurs en croissance : ce sont des secteurs où il faut s’adapter à des fluctuations de la demande (la restauration) ou dans lesquels il faut assurer un service permanent malgré des conditions de travail pénibles qui génèrent de nombreux arrêts maladies et une forte rotation de la main d’œuvre (hôtellerie, santé).

    Les deux études pointent comme autre cause une utilisation croissante de ces contrats courts du fait de contraintes de gestion, et donc imposées par les employeurs. Dans le secteur privé, cela peut permettre de faire des économies au détriment des conditions de travail. Dans le secteur public, cela provient des règles budgétaires qui limitent fortement les dépenses de personnel et forcent donc les institutions publiques à recourir à l’externalisation. Dans un livre récent, François-Xavier Devetter et Julie Valentin montrent comment cela ne mène pas si clairement à des économies de dépenses publiques, mais génère une baisse de la qualité des services pour les usagers et une détérioration des conditions de travail pour les salariés.

    Une réforme favorisant les contrats ultra-précaires

    Car en effet, les travailleurs ne sont pas gagnants à ces contrats courts. Mis à part quelques exceptions – principalement des individus qualifiés et sans charge de famille qui y trouvent une certaine liberté – les pénibilités sont importantes, les revenus totaux faibles (même en y ajoutant les indemnités chômage qui sont une partie minoritaire des revenus) et ces carrières rendent très difficiles les conciliations entre vie professionnelle et vie familiale. Devant ce tableau, on voit mal comment l’appauvrissement de ces personnes à travers une indemnisation diminuée de leur chômage permettrait de « lutter contre la précarité liée à la hausse des contrats courts ».

    Du point de vue de la précarité des emplois atypiques, on a plutôt l’impression que ce gouvernement, dans la continuité du précédent et de sa loi travail, cherche à diminuer toujours plus le pouvoir de négociation des travailleurs. Les formes dérogatoires aux protections sociales assurées par le droit du travail des salariés sont encouragées, comme le statut d’auto-entrepreneur. Quand la justice, en application du droit du travail existant, cherche à protéger des travailleurs en requalifiant leur contrat en salariat (notamment dans le cas des auto-entrepreneurs des plateformes) le gouvernement, plutôt que d’assister la justice dans cette lutte contre la précarité liée aux contrats atypiques, cherche au contraire à sécuriser les plateformes contre les risques de requalification.

    Si on regarde effectivement dans les deux notes précitées les cas où l’assurance chômage peut impacter les décisions des travailleurs en contrats courts, les deux pointent des cas exceptionnels de contrats de seulement une ou très peu d’heures isolées dans une journée et très faiblement rémunérés : la note du CEET parle de « visite courte avec un taux horaire faible » pour les guides conférencières et la note de la DARES parle des « extras de la restauration [qui] ont conscience du fait qu’ils ne doivent pas accepter de mission trop courte si c’est la seule de la journée ». Ainsi, s'il devait y avoir un impact de cette réforme de l’assurance chômage sur les contrats courts, ce serait au contraire de pousser les travailleurs précarisés à accepter des missions toujours plus morcelées et toujours moins bien rémunérées, soit l’exact opposé de la lutte « contre la précarité liée à la hausse des contrats courts ».

    ***

    Il apparaît donc que cette réforme de l’assurance chômage, loin de sa promotion officielle, présente le double objectif de diminuer les protections sociales et le déjà faible pouvoir de négociation des salariés, pour les contraindre à accepter de toujours moins bonnes conditions de travail. On retrouve encore la logique des lois Hartz du début des années 2000 en Allemagne, qui avaient créé une forte baisse des rémunérations modestes alors que même les modèles néoclassiques utilisés pour justifier a priori ce type de réforme peinent à voir le moindre effet emploi a posteriori; ils mesurent en revanche sans ambiguïté un fort effet inégalitaire.

    [1] 80 % des personnes qui ne seront plus du tout indemnisées après le retour à la condition de 6 mois d’affiliation auraient été perdantes à la réforme du mode de calcul avec une condition à 4 mois, mais ne sont pas comptées comme perdantes en régime de croisière car elles n’auront alors plus droit à aucune indemnité.

    [retour ; haut de page]

    La garantie de l'emploi, l'arme sociale du Green New Deal

    Le Grand Continent, 11 avril 2021

    Le livre de Pavlina R. Tcherneva est un plaidoyer pour l’instauration aux États-Unis du système dit « garantie de l’emploi ». Cette proposition fait partie de la plateforme du Green New Deal défendue notamment par Bernie Sanders et ses soutiens, dont l’autrice fait partie. Des propositions similaires ont été faites pour la France, et en particulier dans une récente note du laboratoire d’idée Intérêt général, qui en détaille les modalités d’application en France en se basant notamment sur l’analyse des avantages et inconvénient de l’expérimentation « Territoires zéro chômeur de longue durée ».

    Ce plaidoyer est complet et rigoureux. Après un premier chapitre présentant des cas types ainsi que le principe général de la garantie d’emploi, le second chapitre fait le bilan de la situation actuelle, héritée de la fin des trente glorieuses et du tournant néolibéral. Il insiste énormément sur le consensus macroéconomique du chômage « d’équilibre », le NAIRU, taux de chômage n’accélérant pas l’inflation. L’argument dominant étant que si le chômage baissait trop, la pression du manque de main d’œuvre ferait augmenter les salaires, et en conséquence l’inflation. Ceci revient en quelque sorte à garder un niveau de chômage qui préserve une taille minimale de l’armée de réserve industrielle même en haut de cycle économique. Or, ce chômage jugé « naturel » a des conséquences économiques et sociales désastreuses, documentées par ce livre : coûts monétaires des allocations, déqualification des travailleurs, peur d’employer des chômeurs de la part des entreprises, baisse de l’espérance de vie des chômeurs et conséquences sur l’éducation et la santé des enfants.

    En réponse à cette situation, le chapitre 3 présente le principe de la garantie de l’emploi d’un point de vue macroéconomique : un système d’option sur le modèle de l’avocat commis d’office. Chaque chômeur se voit proposer un emploi et pourra le refuser sans crainte de perdre ses allocations. Cet emploi est offert selon des conditions de travail et une rémunération imposant de facto une qualité plancher à l’ensemble des emplois, de manière plus efficace – ou complémentaire – à une législation de protection du travail et de salaire minimum car elle fournit en permanence une alternative d’emploi décent. De plus, un tel système est automatiquement contracyclique et permet une forte relance keynésienne en période de crise en offrant des emplois et du pouvoir d’achat aux ménages les plus modestes, dont la propension à consommer est forte.

    Le chapitre 4 aborde la question du financement, principalement sous l’angle de la théorie monétaire moderne (MMT). Celle-ci avance que tant que la création monétaire permet de financer de nouvelles activités, elle se fait sans coût économique – en particulier sans inflation – car les nouvelles activités génèrent in fine la richesse correspondante à cette monnaie nouvellement créée. Partant de cette assertion, Pavlina R. Tcherneva considère que la garantie de l’emploi doit être financée par création monétaire et sans recettes fiscales supplémentaires.

    Enfin, avant un chapitre 6 conclusif, le chapitre 5 détaille les caractéristiques microéconomiques de la garantie de l’emploi, tentant de balayer par avance l’ensemble des objections potentielles. Il ne s’agit pas d’un étatisme car la politique, financée au niveau fédéral, est cogérée à un niveau très décentralisé entre les collectivités locales et les associations. L’effet productif est positif car les emplois – et il est possible d’en créer un grand nombre qui ne sont pas des « emplois bidons » – créent bien plus de richesses que le chômage pour l’ensemble de la société. Ce dispositif a effectivement un impact sur les emplois privés du fait d’une rémunération et de conditions de travail décentes, mais uniquement dans le sens où cela réduit le pouvoir des employeurs de trop exploiter leurs salarié·e·s, ce qui est aussi un des objectifs de la mesure.

    Je souhaiterais discuter trois points, tout en tentant de faire le lien avec le cas français car le livre est un plaidoyer très appliqué au cas américain, qui diffère du nôtre par plusieurs aspects. Tout d’abord l’état des lieux du non-emploi, ses causes et ses conséquences. Ensuite la question du financement de la mesure. Enfin le problème de la contracyclicité de la mesure et des potentiels effets éviction.

    État des lieux du non-emploi en France et aux États-Unis

    Les marchés du travail américains et français sont très différents. On peut se demander si l’effet bénéfique attendu outre-Atlantique par l’autrice serait similaire en France. Pour se fixer les idées, il est intéressant de comparer les évolutions de l’emploi au XXIème siècle, avant la crise sanitaire :

    On retrouve le fait énoncé dans le livre que l’emploi fluctue bien plus fortement aux États-Unis, ce qui est notamment dû à l’ensemble des régulations en France permettant de mieux amortir les chocs. Il est souvent dit que ces protections se paient par un niveau de chômage hors-crise plus élevé en France. Ceci s’observe sur le graphique mais on voit que cette statistique est trompeuse car si effectivement le taux de chômage est globalement plus élevé en France (hormis pour les deux premières années post-crise des subprimes) le taux d’emploi est en permanence plus élevé en France. De multiples facteurs l’expliquent : une politique de garde d’enfants moins mauvaise, une régulation globale de l’emploi qui produit moins de personnes durablement éloignées de l’emploi (et ainsi non comptabilisées comme chômeuses), etc. Quoi qu’il en soit, il s’avère que même si moins volatile en Europe, le taux d’emploi des 25-54 ans est comparable entre la France et les États-Unis, avec pratiquement une personne sur cinq sans emploi. Mis à part la petite proportion de rentiers, ces nombreuses personnes pâtissent de cette situation sur de multiples aspects, comme Pavlina R. Tcherneva le documente dans le chapitre 2.

    De ce point de vue, ses principaux arguments en faveur de la garantie de l’emploi s’appliquent en France : d’un point de vue micro, cela redonnerait de l’autonomie et du bien-être à ce cinquième de la population ; du point de vue macro, cela permettrait de produire des richesses pour l’ensemble du pays si ces 20 % de la population en âge de travailler avait effectivement l’opportunité de travailler.

    Un autre point sur lequel elle insiste fortement est l’impact qu’une opportunité pour tous d’un emploi aux conditions de travail et à la rémunération décentes aurait sur l’ensemble du marché du travail. De ce point de vue, l’impact serait plus limité en France dont la protection du travail est plus importante et le revenu minimum quasi-généralisé. Pour autant, il ne serait pas nul étant donné la tendance actuelle à la réduction de la régulation protectrice ou à son contournement par des statuts d’auto-entrepreneurs servant surtout à s’affranchir des devoirs des employeurs envers leurs salariés.

    Le financement par la politique monétaire

    La proposition de financer la mesure par la création de monnaie pose plusieurs questions. Premièrement, elle est peu applicable au cas français puisque les pays de la zone euro ne sont pas souverains sur ce point. Pour pouvoir opter pour ce type de financement, il faudrait soit récupérer la souveraineté monétaire – c’est-à-dire sortir de l’euro – soit établir la garantie de l’emploi au niveau européen et changer les statuts de la BCE.

    Financement dans le cadre européen

    Certes, une garantie de l’emploi au niveau européen serait une bonne chose, surtout si cela permettait de faire converger les protections du travail et les salaires minima. Dans une note du CAE de 2016, Agnès Bénassy-Quéré (actuelle chef-économiste du Trésor), Xavier Ragot (actuel président de l’OFCE) et Guntram Wolf (directeur du think tank européen Bruegel) proposaient, avec certes moultes garde-fou, d’avancer vers une assurance chômage européenne. De ce point de vue, il serait probablement plus souhaitable de construire directement une garantie de l’emploi au niveau européen.

    Pour autant, le fait même que les différences intra-européennes sur ces sujets soient importantes montre à quel point une telle garantie de l’emploi – qui inciterait à une convergence de la protection du travail vers le haut – risquerait de se confronter à de nombreuses oppositions. Cela incline à chercher d’autres modes de financements – budgétaires cette fois – pour mettre en place la garantie de l’emploi en France. Ce n’est pas forcément un problème car au moins deux sources de financements budgétaires peuvent être trouvées en France. Le premier est lié aux impôts, et en particulier sur les plus aisés et le capital qui ont baissé ces dernières années. Le second, comme nous l’indiquions avec Bruno Palier et Michaël Zemmour dans un article résumé dans un policy brief du LIEPP, consisterait à réallouer la part la moins efficace des dépenses publiques cherchant à diminuer le coût du travail. Cette part très importante et en continuelle croissance est malheureusement sans effet sur l’emploi, comme je l’expliquais dans une tribune l’année dernière.

    Financement monétaire, marchandises et bien public

    On peut d’ailleurs s’interroger sur la pertinence du financement monétaire même aux États-Unis où il est possible. L’argument est que la création monétaire finance de nouvelles activités productives qui sont donc des créations de richesse qui a posteriori matérialisent l’augmentation de monnaie. Ce raisonnement fonctionne si la création effective de richesse est marchande. Parmi les types d’emplois évoqués, on retrouve des actions de protection de l’environnement. De telles productions sont bien sûr essentielles et nos sociétés pâtissent de leur insuffisance, mais elles n’augmentent pas la quantité de marchandises (biens et services). Or, la création monétaire pour financer ces emplois augmente le pouvoir d’achat de marchandises des bénéficiaires du programmes.

    Ainsi, à moins d’espérer un fort effet keynésien classique de relance par la consommation, il est nécessaire que ce gain de pouvoir d’achat de marchandises envers les bénéficiaires se fasse au moins partiellement par transfert et non uniquement par création, c’est à dire par une réorientation budgétaire ou fiscale. L’effet global n’en reste pas moins très positif pour l’ensemble de la société, car le programme mobilise de la force de travail inutilisée pour créer du bien-être pour tous (à travers une moindre dégradation environnementale) et pas seulement pour les bénéficiaires (à travers la rémunération et l’estime de soi qu’un emploi décent et utile procure). Mais il ne crée pas pour autant de marchandises supplémentaires donc il est nécessaire de redistribuer le pouvoir d’achat des marchandises.

    Contracyclicité de la mesure et effets d’éviction

    Certes, Pavlina R. Tcherneva ne cite pas que des biens publics non-marchands comme emplois potentiellement créés. En particulier, elle développe des arguments pour la création d’emplois dans les services aux personnes. Toutefois, ces autres exemples sont problématiques vis-à-vis de l’objectif de contracyclicité. Selon cet objectif, il est important que le dispositif soit capable de créer rapidement un grand nombre d’emplois en période de crise économique, emplois qui disparaissent en période de reprise au fur et à mesure que les bénéficiaires retrouvent des emplois marchands. Il est donc essentiel que le bien-être créé par ces emplois puisse perdurer au-delà de leur disparition.

    Ainsi, on comprend bien pourquoi des emplois produisant des biens ou services de type investissement pérenne épousent bien le principe de la garantie d’emploi. Elle cite ainsi : « contrôle des inondations, surveillance des espèces, enquêtes environnementales, plantations d’arbres, entretien et rénovation des parcs, destruction des plantes invasives, construction de pêcheries locales, etc. » toutes productions qu’on peut accélérer en période de crise en profitant de la disponibilité de la main d’œuvre, et dont les bénéfices perdurent ensuite même si la production est ralentie lors de la reprise économique. Mais les mêmes caractéristiques ne se retrouvent pas pour les services aux personnes qui sont consommés immédiatement : les utilisateurs ont tout autant besoin de ces services quand la croissance est revenue.

    D’autant plus que de tels services sont essentiels. C’est devenu évident pendant la crise sanitaire mais reste vrai à d’autres périodes. Comme nous le montrons dans le livre Le retour des domestiques avec Nathalie Morel (et dans la note commandée par l’assemblée nationale issue des mêmes travaux), les besoins permanents pour ces services dépassent largement ce qui est effectivement offert. Le marché ne peut pas générer ces services car les personnes qui en ont besoin n’ont dans la grande majorité pas les moyens de se les offrir, même à prix réduit par les avantages fiscaux. C’est pourquoi ces politiques fiscales n’ont eu que très peu d’effet sur l’emploi.

    Or, une grande partie de ces services sont la continuité directe de ce que nous considérons comme des services publics : d’une part, il existe une nette interaction entre les aides aux personnes en perte d’autonomie et les services médicaux (comme le montre cet article) ; d’autre part, la garde d’enfant, outre son effet très fort sur les carrières des mères, se situe clairement dans la continuité – en amont – des services d’éducation. C’est pourquoi nous considérons que la puissance publique doit financer un réel accès pour tous à ces services, soit via le financement et le conventionnement de producteurs privés comme dans le cas des professions libérales de santé, soit via l’organisation publique de la production comme dans le cas de l’éducation. Cette intervention publique doit être pérenne et permanente. Elle aiderait certainement à diminuer le niveau général de non-emploi, mais ne peut pas constituer une politique contracyclique.

    ***

    Avec cette traduction du livre de Pavlina R. Tcherneva, la nouvelle collection Économie politique des éditions La découverte nous offre un ouvrage concis et riche. Le bon niveau de vulgarisation permet à ce livre d’être abordable par le plus grand nombre sans occulter la complexité des sujets traités. Comme j’espère l’avoir montré ci-dessus, il ne clôt pas le débat mais ouvre la perspective d’intéressants développements. Pour autant, ce livre est un plaidoyer très convaincant en faveur de la mise en place d’une garantie de l’emploi, non seulement aux États-Unis, mais également en Europe et particulièrement en France.

    [retour ; haut de page]

    On ne soutient pas l’emploi en dévalorisant les métiers

    Interview par Julien Hallak pour l'Institut Veblen, 23 mars 2021

    L’Institut Veblen : Le livre de François-Xavier Devetter et Julie Valentin fait le constat d’une forte augmentation des emplois liés au nettoyage et à l’entretien depuis les années 1980, mais aussi et surtout d’une dégradation des conditions de travail pour les métiers concernés, notamment sous l’effet de l’externalisation organisée massivement par les entreprises. Qu’en est-il des emplois de service à la personne ?

    Clément Carbonnier : L’accroissement des effectifs est visible dans les deux secteurs mais il est bien plus prononcé dans le cas des services à la personne. Les auteurs montrent par exemple (tableau 1 p. 29.) une croissance de 58% des effectifs d’agents d’entretien entre 1984 et 2017, là où le nombre d’aides à domicile a augmenté de 434% pendant la même période. Les raisons d’une telle croissance sont en partie les mêmes : il s’agit de services essentiels dont la production est avant tout humaine et qui nécessitent toujours un plus grand nombre de travailleurs pour être accomplis.

    En ce qui concerne la croissance spectaculaire des services à la personne, il faut distinguer deux causes bien différentes. D’une part, dû notamment au vieillissement de la population, de plus en plus de personnes dans nos sociétés se retrouvent en situation de perte d’autonomie. Ces nouveaux besoins ne sont satisfaits que partiellement, faute de financements publics suffisant pour aider les personnes qui ne peuvent s’offrir les services proposés par le marché. D’autre part, comme nous le montrons avec Nathalie Morel dans « Le retour des domestiques » (Seuil, 2018), la majorité des services à la personne bénéficiant d’aides publiques sont des services d’entretien (ménage, repassage, jardinage…) demandés par des personnes qui n’ont pas du tout perdu leur autonomie. Cette demande vient d’une fraction de la population qui a vu ses revenus augmenter et qui délègue de plus en plus à des travailleurs domestiques, que ce soit pour se focaliser sur leurs activités professionnelles ou pour avoir plus de temps libre.

    Quant à l’évolution des conditions de travail, dans le cas des services à la personne elles varient surtout selon qu’il s’agit d’emploi direct (particulier-employeur) ou d’une intermédiation où le travailleur est salarié par une entreprise prestataire. Elles sont nettement moins mauvaises en ce qui concerne les prestations intermédiées que pour l’emploi direct : les particuliers ne sont pas de bons employeurs ! Ainsi, les salariées du particulier-employeur ont en moyenne des temps encore plus partiels et encore moins de formation continue que les salariées des entreprises de prestation de services d’entretien. Elles bénéficient également moins de l’ensemble des droits sociaux et de la protection du travail généralement liés à l’emploi salarié.

    Quel rôle les politiques de l’emploi ont-elles joué dans le développement de ces métiers « bon marché » en France ?

    C.C. : Les politiques de soutien étaient originellement des politiques sanitaires, orientées vers les personnes fragiles (personnes âgées ou handicapées, jeunes enfants…). Le changement d’orientation peut être daté au début des années 1990, avec la création du crédit d’impôt pour l’emploi à domicile, qui est encore aujourd’hui la principale aide publique proposée au secteur. La loi sur les « emplois familiaux » de 1991 a créé cette réduction d’impôt de 50 % du montant des dépenses engagées pour l’achat (direct ou intermédié) de services à domicile.[1]

    Depuis, la réduction d’impôt a été transformée en crédit d’impôt, ce qui réduit en théorie certaines injustices (les ménages non imposables ne bénéficient pas des réductions d’impôt mais peuvent bénéficier des crédits d’impôt). Toutefois, cette modification n’a que très peu changé le profil des bénéficiaires effectifs de l’avantage fiscal, car seuls les ménages aisés peuvent financer les 50 % non pris en charge (et avancer les 50 % ultérieurement remboursés).

    Au fil des ans, d’autres dispositifs fiscaux s’y sont ajoutés, par exemple l’exonération des cotisations sociales, aujourd’hui réservée aux services à destination des publics fragiles. La majorité des services à la personne bénéficie également d’un taux de TVA réduit à 10 %, tandis qu’un taux à 5,5 % s’applique aux activités d’assistance dans les actes quotidiens de la vie des personnes âgées et handicapées (à l’exclusion des soins). La déclaration simplifiée grâce à la mise en place du « chèque emploi service universel » (CESU) permet aussi de faciliter l’emploi direct dans le cadre du particulier-employeur.

    Ces politiques impactent la qualité des emplois de plusieurs manières. D’un côté, se focalisant uniquement sur le coût des services, elles renforcent l’idée de métiers non qualifiés qui ne « vaudraient pas le prix ». A travers les fortes incitations offertes aux particuliers-employeurs, elles incitent aussi à des formes d’emploi où le travail salarié est le moins protégé. De l’autre, elles ne font pas assez pour protéger les salariés et leur assurer des conditions de travail et de rémunérations décentes, mettant de fait les entreprises prestataires en concurrence tarifaire avec le particulier-employeur et n’imposant ainsi pas à ces entreprises l’intégralité des protections qu’on pourrait attendre.

    En France, ces politiques ont souvent été justifiées par la lutte contre chômage. Qu’en est-il à votre avis ?

    C.C.  : Effectivement, le développement des services à domicile a souvent été vu comme une stimulation de la demande avec un effet positif sur l’emploi, généré soit grâce à la marchandisation des tâches domestiques accomplies jusqu’alors par les ménages, soit via un transfert du travail informel ou clandestin vers l’emploi déclaré (ce deuxième point est fortement mis en avant dans les rapports publics sur le sujet). Or l’analyse des variations de l’emploi déclaré contredisent ces espérances.

    En effet, d’après les études statistiques que nous avons menées, la mise en place initiale des dispositifs fiscaux au début des années 1990 semble avoir eu un impact sur la création d’emploi (impact toutefois limité, le coût par emploi créé restant supérieur au coût direct des emplois concernés). En revanche, les réformes ultérieures n’ont eu que des impacts négligeables sur la situation de l’emploi en France.

    Pour revaloriser les emplois d’entretien, François-Xavier Devetter et Julie Valentin préconisent trois pistes principales : plus de chances de mobilité professionnelle pour les travailleurs ; plus de protection sociale et d’encadrement des métiers concernés ; enfin une déspécialisation et notamment une ré-internalisation des métiers externalisés, avec le développement de la polyvalence au sein des entreprises. Que pensez-vous de ces recommandations ?

    C.C.  : La démonstration de François-Xavier Devetter et Julie Valentin est très convaincante. Pour ce qui concerne les services d’entretien à destination des services publics ou des entreprises, l’internalisation couplée d’une protection du travail et une réelle politique de ressources humaines serait favorable à la qualité des emplois pour les travailleuses et à la qualité des services pour les employeurs ou les clients. La formation continue permise par ce cadre permettrait encore d’améliorer la qualité des services rendus et la mobilité professionnelle des salariées.

    Comme le notent les auteurs de ce livre, les politiques à mettre en place doivent être différentes selon qu’il s’agisse d’employeur public ou privé. Dans le secteur public, il faut remettre en cause les normes de contrôle budgétaire qui s’avèrent souvent contre-productives : en cherchant à tout prix à réduire les dépenses localement (et en particulier les dépenses de personnel) on dégrade les emplois sans pour autant baisser la dépense publique globale ; parfois on l’augmente même, à travers les allègements de cotisations pour les entreprises prestataires ainsi que les allocations sociales qui compensent les rémunérations insuffisantes. Lorsqu’on délègue un service public à un opérateur privé, il convient de lui donner les moyens financiers d’assurer cette tâche de manière efficace, notamment à travers des fonds suffisants pour financer des conditions de travail et des rémunérations décentes aux travailleurs qui l’accomplissent.

    Pour ce qui concerne les entreprises privées, plusieurs voies sont envisageables mais il s’agit surtout de renforcer le socle commun de la protection du travail et de la protection sociale, pour arrêter la course aux moins-disant. On mettrait alors fin à la plupart des cas d’externalisation ; car les cas où celle-ci est techniquement plus efficace sont en réalité peu nombreux, comme l’ont montré François-Xavier Devetter et Julie Valentin.

    [1] Initialement fixée à 25 000 francs (environ 3 800 euros) par an, la limite annuelle des dépenses éligibles a été augmentée à 90 000 francs (13 720 euros) en décembre 1994. Ramenée en 1998 à 45 000 francs (6 860 euros), elle est repartie à la hausse en 2003 (10 000 euros annuels), puis montée jusqu’à au moins 12 000 euros fin 2004 (et jusqu’à 20 000 euros selon la composition du ménage).

    [retour ; haut de page]

    Le capitalisme, sans rival de Branko Milanović

    Blog d'alternatives économiques, 21 mars 2021

    Le livre Le capitalisme, sans rival de Branko Milanović est paru en septembre dernier mais il n’est pas trop tard pour discuter certains arguments ou conclusions. Après une analyse générale de deux formes polaires de capitalisme (les États-Unis et la Chine), de leurs contraintes et de leurs conséquences – notamment en termes de bien-être et d’inégalité – l’auteur réfléchit à l’avenir de nos sociétés. Ses analyses l’amènent à proposer un ensemble de réformes pour améliorer la forme occidentale du capitalisme, en quatre points :

    1. Ajouter des incitations fiscales pour que la classe moyenne investisse plus dans des actifs risqués ;

    2. Investir des fonds publics dans l’éducation pour réduire l’inégalité des chances ;

    3. Établir un régime de citoyenneté allégée pour diminuer les droits des migrants ;

    4. Financer les campagnes politiques intégralement sur fonds publics.

    Le point 2 est assez consensuel en théorie et le point 4 reprends notamment les analyses de Julia Cagé. L’argumentation du livre cherche surtout à étayer les propositions 1 et 3. Toutefois, si une part de ces analyses est intéressante pour les informations qu’elle apporte – notamment pour le cas très détaillé de la Chine – leur utilisation pour défendre ces deux propositions reste peu convaincante, voire empreinte de sophismes.

    Deux variétés de capitalismes ?

    Avant de discuter de cette argumentation, je voudrais revenir sur la présentation détaillée du modèle chinois – à la lecture de laquelle j’ai beaucoup appris – et sur la manière dont Branko Milanović encastre cette présentation dans une catégorisation des systèmes économiques actuels. En effet, il détaille les variétés de capitalisme américaine et chinoise non simplement comme les formes des deux superpuissances mais comme les deux formes possibles du capitalisme à venir, affirmant implicitement que les différences avec les autres variétés de capitalisme sont faibles et qu’on peut assez bien placer tous les pays avec cette catégorisation binaire.

    Si on compare avec les analyses des variétés de capitalisme opérées précédemment par les chercheurs en science politique ou en économie politique, on s’aperçoit qu’elles s’attachaient surtout à décomposer l’ensemble de modèles que Branko Milanović regroupe sous l’appellation de capitalisme libéral. Ces différentes catégorisations (notamment Esping-Andersen, Soskice et Hall, Amable, Hassel et Pallier) ont en commun : i. de ne pas considérer la Chine ; ii. de considérer le modèle libéral comme une forme distincte parmi les capitalismes non-chinois, restreint aux pays anglo-saxons (États-Unis, Canada, Royaume-Uni, Australie). C’est d’ailleurs sur les formes non-anglo-saxonnes que ces catégorisations divergent, même si on retrouve souvent une catégorie nordique (sociale-démocrate) et une catégorie d’Europe du nord-ouest. Les autres pays ne se retrouvent pas toujours classés dans les mêmes catégories, même si semblent se dessiner des catégories méditerranéennes, d’Europe de l’Est, et asiatiques (Japon et Corée en particulier).

    Même si ce n’est pas dit explicitement, il semble que la thèse de Branko Milanović soit que la mondialisation et la vague néolibérale tendent à amener l’ensemble de ces modèles à se rapprocher du modèle américain, simplifiant la catégorisation aux deux pôles des deux super-puissances. Cette tendance s’observe en effet mais on peut se demander si elle est si complète. Surtout, il n’est pas évident que les différences aux modèles américains ou chinois soient négligeables quand on regarde la Russie, la Turquie, le Brésil, la Corée du Sud ou l’ancien bloc de l’est. Ces pays tiennent une place importante dans l’économie mondiale et se situent nettement à l’extérieur de la dichotomie présentée dans Le capitalisme, sans rival. Ils ne sont pas non plus des compromis entre les deux systèmes mais ont des caractéristiques distinctes des deux.

    Un autre problème de présenter ces deux modèles des deux super-puissances comme la dichotomie des modèles possibles est que la Chine est finalement très isolée. Si dans un premier temps, l’auteur définit le modèle de capitalisme politique comme pouvant s’appliquer à d’autres pays que la Chine (tableau page 131), il explique ensuite que ces pays sont en réalité très profondément différents et que le modèle chinois ne peut pas vraiment s’étendre.

    Sans rival ?

    Quoi qu’il en soit des différences, la présentation de la Chine comme une variété de capitalisme permet d’affirmer que la quasi-intégralité de la planète est aujourd’hui capitaliste, ce qui est difficilement contestable. Mais Branko Milanović ne se contente pas de le constater, il insiste fortement sur le fait que, sinon permanente, cette situation est très stable et amenée à durer. Il n’y aurait pas de perspective alternative et il suggère même de ne pas chercher à changer de système, seulement à l’amender à la marge. Son argument principal pour cela est qu’il n’existe pas de modèle de type socialiste pouvant succéder au capitalisme car pour lui le socialisme est intrinsèquement un modèle antérieur au capitalisme dans l’histoire des systèmes économiques : c’est le système économique qui permet d’amener les pays colonisés à se libérer et à se développer vers le capitalisme dans un cadre mondial où leurs anciens colonisateurs ont déjà fait le chemin du féodalisme au capitalisme.

    Cette analyse descriptive du rôle effectif des systèmes s’étant revendiqués du socialisme est très intéressante. Pour autant, l’argumentation pour en tirer la conclusion que le socialisme ne peut être que cela et qu’il ne peut donc pas exister de système de type socialiste pour dépasser le capitalisme me semble moins convaincante. Elle est résumée page 101 :

    Le problème n’est pas tant que le « socialisme réel » n’ait pas eu toutes les caractéristiques qu’il était censé avoir en théorie (bien que ce soit aussi un problème, puisque l’absence de classes qui devait le distinguer a été remise en cause par les sociologues marxistes). Le problème principal et apparemment insoluble pour l’historiographie marxiste est d’expliquer comment une formation socio-économique supérieure comme le socialisme a pu revenir à un état inférieur.

    Un point essentiel est de savoir si ce « socialisme réel » était réellement du socialisme, ou à tout le moins représentatif de ce que pourrait être le socialisme dans un pays développé. Romaric Godin a précisément détaillé ce point dans sa recension. Branko Milanović note d’ailleurs que l’analyse économique marxiste considère impossible de bâtir une société effectivement socialiste sur les bases d’une société féodale, mais s’attache à « la prudente déclaration de Marx à la révolutionnaire russe Véra Zassoulitch, dans une lettre de 1881 » (page 105) pour dire que c’était en fait possible et que les régimes soviétiques sont la représentation du socialisme. Il considère alors comme absurde la position des « marxistes légaux » qui contestaient pour ces raisons la possibilité même d’instaurer un régime effectivement socialiste en Russie, car « cela les a conduits à une position pratique non moins absurde consistant à œuvrer au développement du capitalisme en Russie pour que son épanouissement puisse, très vite, créer une classe laborieuse suffisamment forte pour le renverser. » (page 105). C’est effectivement absurde mais l’est-ce plus qu’appeler communiste une société qui ne l’est pas et qui ne peut pas l’être, ce qui a conduit au stalinisme ? A partir du moment où les révolutions communistes dans les pays développés ont échoué (notamment en Allemagne et en Italie), l’URSS était de fait dans l’impasse. Il s’en est suivi que toutes les positions étaient absurdes, mais cela ne veut absolument pas dire que l’URSS ait été effectivement socialiste.

    Toutefois, il faut reconnaître que refuser cet argument que l’URSS était effectivement socialiste ne résout pas la question, car il reste vrai qu’aucune révolution se réclamant du socialisme n’a pris le pouvoir dans des pays développés. Est-ce le signe de l’impossibilité du socialisme et que les idéologies qu’il véhicule ne peuvent prendre le pouvoir que dans les pays en développement ? C’est ce qui est affirmé page 103 :

    La vision marxiste de la guerre et de la montée du fascisme ne contredit pas les preuves historiques. Ce qui les contredit en revanche et qui reste une vraie pierre d’achoppement (et peut-être même un obstacle insurmontable) pour l’explication marxiste de l’histoire du XXème siècle, c’est de savoir pourquoi le communisme n’est pas parvenu à s’étendre à plus de pays développés, et pourquoi les pays communistes ont fini par redevenir capitalistes.

    Pour la seconde, le retour au capitalisme, il n’y a pas de pierre d’achoppement : c’est au contraire en accord avec l’hypothèse que ces régimes n’étaient pas effectivement socialistes, et conforté par la description assez convaincante qu’en fait ce livre que les révolutions dans ces pays étaient des révolutions de libération nationale plus que des révolutions socialistes.

    Pour l’absence d’extension aux pays développés, la question reste ouverte mais il me semble qu’il existe de nombreuses pistes à explorer (et je renvoie à nouveau à la recension de Romaric Godin sur ce point). Une première piste serait que le capitalisme du début du XXème siècle n’était pas encore suffisamment développé pour être dépassé : il n’avait notamment pas encore passé le stade où il a permis la consommation de masse. Une deuxième piste réside dans des défaites militaires plus qu’idéologiques ou économiques, car les tentatives révolutionnaires dans les pays développés ont été violemment réprimées, par les corps francs pour la révolte spartakiste en Allemagne en 1919, par les fascistes pour les mouvements italiens au début des années 20.

    Impossibilité des politiques sociales

    Cela rejoint une vision marxiste que pour éviter les révoltes socialistes, la bourgeoisie capitaliste libérale à deux solutions : soit offrir des droits sociaux en allant vers la social-démocratie, soit céder à l’autoritarisme violent. Or, contrairement à Thomas Piketty qui expliquait l’échec de la social-démocratie par un manque d’idées, Branko Milanović pense qu’elle est obsolète et ne peut pas être réinventée dans le monde moderne. Il pense d’ailleurs que ce n’est pas un mal et que l’hypermarchandisation est une bonne chose en soi (pages 229-230) :

    Se débarrasser de l’esprit de compétition et d’accumulation qui est étroitement lié au capitalisme provoquerait une baisse de nos revenus, une hausse de la pauvreté, un ralentissement voire un recul du progrès technique et la perte d’autres avantages (des biens et services qui font aujourd’hui partie intégrante de nos vie) que le capitalisme hypermarchandisé nous fournit. On ne peut pas espérer les conserver tout en détruisant l’esprit d’accumulation et en ôtant à la richesse son statut de marqueur de réussite sociale. Tout cela va ensemble. C’est peut-être une des caractéristiques principales de notre condition humaine : nous ne pouvons améliorer notre confort matériel sans donner libre cours aux traits les moins séduisants de notre nature.

    C’est une vision extrémiste de la thèse déjà caricaturale de l’aléa moral : les humains ne font rien s’ils n’y sont pas forcés par la menace de la misère. Or, même à l’intérieur d’un capitalisme hypermarchandisé, les humains prouvent chaque jour qu’ils peuvent fournir des efforts et créer sans cette menace. Les logiciels libres et l’importante production de services associatifs le montrent constamment. Il va encore plus loin quelques pages suivantes en disant même que sans la relation marchande nous serions invivables les uns pour les autres (page 239) :

    Se montrer bienveillant et aimable est couteux, et les efforts que cela implique sont justifiés par la perspective que cette bienveillance sera réciproque. Mais si la personne avec laquelle vous interagissez ne sera plus là dans un mois, quel est l’intérêt d’être bienveillant avec elle ? L’effort est totalement vain.

    Mon expérience personnelle (même si je sais que ce n’est pas très scientifique) me pousse à croire que les interactions non marchandes avec des inconu·e·s, lorsque réciproquement bienveillantes, sont des moments qui apportent par eux-mêmes un réel bien-être même s’ils restent éphémères. Plus encore, de nombreux travaux d’économie expérimentale montrent l’existence de comportements altruistes généralisés, certes renforcés quand on rencontre physiquement les personnes (même sans promesse d’interactions futures) mais également quand on ne les rencontre même pas !

    Surtout, pour démontrer que les alternatives au capitalisme hypermarchandisé n’existent pas (dans une section titrée « there is no alternative » au premier degré), il ne donne que des exemples de comportements individuels déviants à l’intérieur d’une société qui resterait un capitalisme néolibéral. C’est rater l’intégralité de la question des alternatives, qui sont forcément collectives : il s’agit bel et bien de changer le système et non de se comporter différemment à l’intérieur du système inchangé. Comment parler de système de production sans parler de politique ?

    Quelles réformes préconiser alors ?

    Comme il récuse tout changement en profondeur de notre système économique mais qu’il dit être intéressé par le bien-être de l’ensemble de la population, il en vient à faire des propositions pour que davantage d’individus se comportent en capitalistes (page 72) :

    Si nous voulons égaliser les gains reçus par la classe moyenne et les riches, il faudrait encourager la classe moyenne à détenir plus d’actions et d’obligations.

    C’est rater une bonne part de la compréhension du système capitaliste en pensant que si chacun fait un peu plus d’effort pour être un meilleur capitaliste, alors on pourra aller vers un capitalisme d’égaux où tout le monde est heureux. Et comment y parvenir ? Par les incitations ! Le rôle de la politique est ainsi de donner les petits coups de pouces pour aider les agents à prendre individuellement les bonnes décisions. On retrouve toute l’idéologie néolibérale de la régulation par les incitations, qui a pourtant bien montré ses effets dévastateurs et inégaux dans tous les pays qui s’y sont adonnés.

    C’est aussi naïvement penser que la composition des patrimoines selon leurs niveaux est le signe de mauvais choix des classes moyennes, qui investiraient à tort dans leur logement au lieu d’investir dans des actifs risqués plus rémunérateurs. Les raisons d’une forme d’épargne graduelle, d’abord le logement personnel puis les autres formes d’investissements sont nombreuses et non irrationnelles, comme je l’avais détaillé dans un article il y a quelques années.

    Mais ce qui est finalement assez étonnant dans ce livre, c’est une vision très premier degré de la théorie néoclassique. Je défends que cette théorie a un intérêt pour comprendre certains phénomènes économiques, mais il est absurde de faire comme si le monde se comportait réellement comme dans une telle maquette ultra-simplifiée. Un exemple du même type se retrouve page 177 à propos de la force de travail :

    D’abord (et d’un point de vue strictement économique), le travail, tout comme le capital, est simplement un facteur de production. En principe, nous ne devrions pas accorder de traitement particulier à l’un des facteurs.

    Bien sûr que le travail est différent du capital, et pour une raison simple : l’utilisation de la force de travail pour produire affecte directement (et non par la consommation de ce qui est produit ou par sa rémunération) le bien-être des humains (en l’occurrence ceux qui génèrent cette force de travail), que ce bien-être soit négatif via la peine au travail ou positif via la réalisation des potentialités créatrices. Certes, le principe du capitalisme est de faire comme si le travail n’était qu’un facteur de production comme les autres – de transformer le travail en marchandise – mais cela reste un « comme si », et fort heureusement encore très imparfait. Le travailleur n’est pas juste un facteur de production car son bien-être devrait être l’objectif principal d’un système économique émancipateur. On retrouve aussi cette vision assez naïve du monde dans l’explication de la croissance des inégalités de salaire, pour laquelle sont mises très fortement en avant les choix et les capacités individuelles (page 40) :

    Par exemple, aux États-Unis comme dans d’autres pays, une part de la hausse des inégalités de revenus résulte de l’augmentation de la prime à l’éducation dont bénéficient les travailleurs les plus diplômés. Or, il ne s’agit pas d’une caractéristique systémique du capitalisme libéral. La hausse de cette prime est due à un manque d’offre de main d’œuvre très qualifiée et à l’évolution technologique qui rend le travail qualifié plus productif et conduit à une augmentation de la demande d’une telle main-d’œuvre (Goldin et Katz, 2010). Fondamentalement, rien dans le capitalisme libéral n’empêche une hausse de l’offre de main d’œuvre très qualifiée. Aucun obstacle juridique n’empêche les individus de faire de longues études et, dans la plupart des pays d’Europe occidentale, l’accès à l’enseignement supérieur est même gratuit, ou relativement peu coûteux.

    C’est mettre bien vite de côté toutes les barrières (systémiques quant à elles) à l’accès à l’éducation même quand celle-ci est formellement gratuite. C’est aussi naturaliser les inégalités en expliquant leur croissance par le progrès technologique. Or, les inégalités n’augmentent pas qu’entre qualifiés et non qualifiés, sinon on n’aurait pas la part des 1 % qui s’envole plus vite que les indicateurs d’inégalité plus globaux (comme le coefficient de GINI). De nombreux articles empiriques mettent en avant l’existence de « partage de rente » dans la fixation des salaires, qui ne sont donc pas le révélateur de la « productivité naturelle » des travailleurs. Par exemple, Card, Devicienti et Maida ont montré comment une grande partie des écarts de salaires en Italie étaient en fait directement liés à la rente à partager dans les entreprises, sans qu’un partage de cette rente avec les salariés n’affecte la rentabilité globale de l’entreprise.

    Ceci est cohérent avec le fait qu’une littérature croissante trouve que l’augmentation des inégalités de salaires est en grande partie tirée par des différences entre entreprises plutôt qu’entre productivité des salariés. Or, les mécanismes de partage de rente, comme les mécanismes qui permettent d’obtenir les postes dans les entreprises qui paient le mieux, ne sont pas naturels et individuels mais bien liés à l’organisation institutionnelle de nos sociétés. Branko Milanović en convient lui-même quand il décrit la manière dont les ménages les plus fortunés aux États-Unis assurent à leurs enfant les places dans les universités les plus prestigieuses. Il l’interprète simplement comme le fait qu’ils s’assurent que leurs enfants seront les plus intrinsèquement productifs, en oubliant un peu vite la place des effets de signalement et de réseaux qui assureront effectivement les postes les mieux rémunérés à leurs enfants, mais pour d’autres raisons qu’une pure supériorité intellectuelle.

    Sur l’immigration

    Enfin, on retrouve cette manière de se contenter de raisonnements assez simplistes (figurant un monde organisé par des décisions individuelles d’agents rationnels agissant sans contrainte) dans la partie sur l’immigration, qui défend la formalisation de sous-citoyennetés. Le raisonnement part de l’idée que le libre échange est forcément bénéfique, le démontrant par un pur sophisme (page 178) :

    La création d’obstacles supplémentaires à la circulation du capital et du travail entraînerait en outre une baisse globale des revenus, y compris dans les pays ayant décidé de quitter la mondialisation. Pour s’en convaincre, il suffit de se livrer à un raisonnement a contrario ; si l’on affirme que le revenu national ne serait pas affecté par des barrières aux frontières, alors il faudrait aussi dire que le revenu ne serait pas affecté par l’instauration d’obstacles à la circulation du capital et du travail à l’intérieur des frontières nationales. […] En descendant encore d’un niveau, on arriverait vite à la conclusion que la mobilité du travail (d’une région ou d’un secteur à l’autre) n’a pas d’effet sur le revenu total – une affirmation manifestement fausse.

    Ce raisonnement oublie l’importance des régulations économiques et politiques en considérant de la même manière des mobilités à l’intérieur d’espaces régulés en commun et entre espaces régulés séparément et différemment. Or, c’est bien toute la question de la mobilité internationale du travail, du capital et des marchandises, que de savoir comment cela influe sur l’impact des politiques publiques. Il n’est donc pas possible de déduire l’effet d’une libre circulation internationale de l’effet d’une mobilité « d’une région ou d’un secteur à l’autre ».

    Mais cela permet à Branko Milanović de considérer qu’il convient d’obtenir une parfaite mobilité internationale de tous les facteurs, dont le travail, puisque « nous ne devrions pas accorder de traitement particulier à l’un des facteurs ». Il enchaîne alors sur une vision de l’immigration très déconnectée de la réalité. On peut d’ailleurs remarquer que cette partie ne cite aucun travail empirique sur le sujet : c’est donc de l’impression de l’auteur (ou de son raisonnement en concurrence parfaite sans friction) que sont tirées les conclusions. Il introduit d’abord le sujet page 180 sous l’angle des invasions barbares avec des exemples sur les Goth et l’empire romain, puis raisonne selon le principe que les flots de migrants se déversent d’une région à l’autre mus par les comparaisons rationnelles de niveaux de vie entre pays, comme des cours d’eaux se déversent en fleuves bouillonnants en fonction des différences d’altitude. Pourtant, les travaux empiriques montrent tout autre chose, comme le résumait récemment Esther Duflo qui, elle, citait des sources en appui de ses affirmations :

    Un des grands fantasmes vis-à-vis de la migration, c’est que tout le monde est en mouvement perpétuel, et en particulier que s’il n’y avait pas de barrières très imperméables entre les pays, tout le monde voudrait venir dans nos pays riches. En réalité, même dans des espaces comme celui de l'Union Européenne où les mouvements de population sont complètement libres, ils sont finalement très faibles. Le deuxième fantasme, qui est lié au premier, est que la raison principale pour laquelle les gens partiraient de chez eux c’est qu’ils seraient attirés par des conditions de vie, des salaires meilleurs dans d’autres pays, alors qu’en réalité c’est un motif de migration extrêmement minoritaire. Ce qui entraîne de grands mouvements de gens d’un coup, c’est une énorme crise.

    Partant de l’hypothèse des invasions barbares en fonction des différences de niveaux de vie, Branko Milanović déduit, toujours sans citer de travaux, qu’il devrait exister une courbe de demande de migrants qui serait clairement décroissante en fonction des droits qu’on leur accorde (page 183). Encore une fois, la complexité des mécanismes d’assimilation et d’acceptation font que la relation entre acceptation et droits offerts aux migrants est bien plus complexe (voire par exemple les cours au collège de France de François Héran sur le sujet).

    Une hypothèse essentielle de cet argumentaire est que les migrants sont un désavantage pour les populations locales s’ils ont des droits, car cela enlèverait des droits aux résidents de longue date. Il n’est pas évident que maintenir une population de sous-citoyens protège les droits des citoyens, et c’est particulièrement contredit par les études en ce qui concerne les assurances sociales par exemple. Le principe même d’une assurance est de mutualiser les risques, et c’est tel qu’à moins d’intégrer des personnes particulièrement plus risquées que la moyenne dans la mutualisation, l’augmentation du nombre d’assurés est une bonne chose pour l’ensemble des assurés. Or, sur le risque intrinsèque des immigrés, il n’est pas établi que les immigrés bénéficient plus qu’ils ne contribuent aux assurances sociales ; Esther Duflo citait même des preuves du contraire dans l’émission suscitée.

    Branko Milanović tire alors la conclusion qu’il convient d’ouvrir pleinement les frontières, suppose de manière erronée que cela fera surgir d’immenses flots de migrants, qui seront alors exploités légalement grâce à un système de sous-citoyenneté formelle (page 197) :

    Pour que les migrations de main-d’œuvre cessent d’être un sujet politique sensible, il faut soit réduire les écarts de revenus entre pays (les pays pauvres rattrapant les pays riches), soit réduire fortement, voire démanteler l’État providence existant dans le monde riche, soit accorder aux migrants nettement moins de droits qu’aux citoyens.

    Les prémisses simplistes et erronées de son syllogisme le conduisent à cette seule alternative ternaire, qu’il conclut en considérant que le premier point n’est pas atteignable et que le second n’est pas souhaitable (même s’il a jugé par ailleurs qu’on devait de toute façon revenir sur les politiques sociales hormis l’éducation, voir ci-dessus). Il ne nous reste donc plus qu’à accepter les sous-citoyennetés.

    ***

    Pour conclure cette discussion, je dirais que la lecture de ce livre m’a beaucoup appris sur le système chinois et que j’y ai trouvé des réflexions intéressantes sur l’explication des inégalités aux États-Unis. Mais que je suis resté sur ma faim quant au passage aux propositions de politique économique.

    [retour ; haut de page]

    Le racisme comme nudge politique

    Blog d'alternatives économiques, 22 février 2021

    La récente séquence d’attaques contre certains champs de recherche en sciences sociales soulève de nombreux débats qui mériteraient qu’on s’y attarde. Un débat important concerne l’orientation des efforts de recherche en général et dépasse largement le champ des sciences sociales. Il s’agit en particulier des questions d’organisation du financement de la recherche et de son évaluation : quel poids accorder à la liberté « darwinienne » de la recherche fondamentale versus l’orientation par le pouvoir exécutif ou les acteurs commerciaux. Ces questions sont essentielles et j’y reviendrais sûrement un jour mais je vais me contenter ici de débats bien plus terre à terre : l’alliance stratégique entre l’extrême droite et les réformateurs néolibéraux.

    On ne peut plus rien dire !

    Je ne crois pas que la campagne de Frédérique Vidal contre un prétendu risque islamo-gauchiste à l’université soit un dérapage isolé d’une ministre de l’enseignement supérieur tentant de détourner l’attention portée à l’absence de solutions proposées à la crise profonde que vit l’université, ses personnels et encore plus ses étudiants. Ce n’est pas juste un tour de passe-passe communicationnel, avec un contrefeu allumé par la ministre le 14 février et éteint le mercredi suivant en conseil des ministres par le Président de la République. Le mal est plus profond car les attaques sont coordonnées et répétées, et font échos aux lois qui sont votées (ce qui dépasse donc le simple artifice de communication). Ce qui, en revanche, est bien de la communication, c’est cette mise en scène d’un Président de la République qui éteindrait la polémique en conseil des ministres alors qu’il a lui-même participé à lancer et attiser ces polémiques. Aujourd’hui, cette idée de gangrène qui rongerait nos universités s’est imposée dans les débats publics, non seulement sur CNews et BMFtv, mais sur bien d’autres médias, comme France Inter où la présentatrice de la matinale n’hésite pas à présenter ces thèses absurdes comme une vérité non questionnée pour interroger son invité :

    « Oui mais si on parle de ce qui se passe dans nos universités françaises, ces idées racialistes, indigénistes, qui viennent des campus américains, c'est cette idéologie, idée différentialiste, aujourd'hui elle n'a pas gagné selon vous, dans les universités françaises, vous n'avez pas l'impression qu'elle gagne du terrain chaque jour ? »

    Il est très inquiétant que cette séquence gouvernementale valide de fait la stratégie de l’extrême droite : présenter ceux qui luttent contre le racisme, ainsi que les savoirs académiques qu’ils peuvent invoquer, comme une forme de racisme inversé ou une menace contre la liberté d'expression. Cette stratégie fonctionne désormais auprès de personnes a priori non racistes mais qui se mettent à défendre un statu quo discriminatoire au nom de prétendues valeurs universelles. En rejetant comme dangereux l’état des lieux du racisme et l’analyse de ses mécanismes, ils défendent de fait la continuation de ces dominations. On retrouve les mêmes procédés, avec malheureusement les mêmes succès médiatiques et politiques, pour ce qui concerne les dominations sexistes. Cela sans même parler des analyses des interactions de ces dominations racistes, sexistes, de classe…

    On pourrait voir sous un jour optimiste ces réactions violentes de conservateurs cherchant à protéger leurs avantages : comme des signes que les temps changent. Ces crispations racistes seraient la réponse désespérée des racistes devant l’avancée des réelles valeurs universalistes, celles qui pointent et critiquent les discriminations. Malheureusement, s’ils s’ingénient à se présenter comme bâillonnés et à dénoncer des censures à longueur d’antenne, leur parole raciste et sexiste est en réalité omniprésente et s’accompagne de victoires idéologiques et parlementaires.

    Diviser pour mieux imposer les réformes anti-sociales

    Ces victoires sont permises par l’alliance objective qui s’est construite entre les autoritaires racistes et sexistes et certains libéraux qui devaient pourtant leur être opposés. L’exemple patent est la Présidence actuelle. De manière très générale, les promesses de campagne étaient libérales-libérales : libérales économiquement avec une accélération des réformes de diminution/privatisation de la protection sociale et une forte baisse de la protection du travail ; libérales politiquement avec la mise en avant de l’égalité des chances et des libertés individuelles, ainsi que la lutte contre les discriminations (associées à une critique forte des régimes illibéraux).

    Après quatre années, force est de constater que si la défense des libertés politiques a été abandonnée, le cap néolibéral a été tenu quoi qu'il en coûte : au-delà du programme lui-même (lois travail, baisse des impôts des plus fortunés ajustée par des baisses des prestations sociales…), les concessions faites aux gilets jaunes ont toutes consisté en des reculs de l’état providence (baisses des financements de la protection sociale nécessitant des baisses de générosité ultérieures). Le traitement de la pandémie a été similaire avec l’inscription d’une part importante de la dette Covid sur le compte de la sécurité sociale pour lui demander des efforts budgétaires ultérieurs. Enfin, alors même que la crise n’est pas terminée, on voit se poursuivre la privatisation de la santé, la baisse de la protection des chômeurs et on annonce le retour de la baisse des retraites.

    En revanche, la promesse de libéralisme politique n’a pas été tenue. Dès le début du quinquennat, les principes de l’état d’urgence ont été inclus dans le régime constitutionnel normal. La répression s’est accentuée, d’abord envers les migrants, entraînant une réaction même chez des soutiens ayant participé à la campagne. Puis, envers l’ensemble de la population lors des manifestations, avec une répression spécifique des journalistes relatant ces violences policières. Cela est allé jusqu’à contraindre l’ONU à réagir publiquement. Parallèlement, la lutte pour l’égalité des chances et contre les discriminations a été inexistante.

    Dans ce cadre, pointer comme une menace envers la République les travaux universitaires analysant le racisme et l’islamophobie n’est pas fortuit, ce n’est pas juste une sortie opportune d’une ministre de l’enseignement supérieur pour détourner l’attention des files d’étudiants cherchant à se nourrir. Il s’agit plutôt d’une nouvelle étape d’une stratégie coordonnée qui avance depuis au moins quatre ans. Le gouvernement n’a pas pu mener de front ses deux promesses libérales (économique et politique) et il a choisi celle qui probablement lui importait le plus.

    Plusieurs explications peuvent être avancées pour comprendre ce renoncement partiel. Une première repose sur l’impopularité des réformes néolibérales, qui nécessitent donc d’user d’autoritarisme pour être imposées. Une seconde se trouve dans les alliances politiques : une grande partie des défenseurs des réformes néolibérales sont politiquement conservateurs et il a fallu leur offrir de l’illibéralisme politique pour conserver leur soutien aux politiques économiques engagées. Une troisième, que je vais développer ici, repose sur l’utilisation des principes du nudge qu’affectionne tant ce gouvernement.

    Évocation de l’immigration et envie de solidarité

    Le concept de nudge a été introduit en 2008 par Richard Thaler et Cass Sunstein dans le livre Nudge : la méthode douce pour inspirer la bonne décision comme « un aspect de l'architecture du choix qui modifie le comportement des gens d'une manière prévisible sans leur interdire aucune option ». En quoi s’applique-t-il à ce que nous vivons actuellement ? Les réformes néolibérales visent à individualiser au maximum la société en ne gardant comme mode d’interactions interpersonnelles que des processus de marché. Cela s’observe y compris dans les productions non-marchandes, voire publiques, dans lesquelles on impose des mécanismes qui imitent le marché. Ces réformes d’individualisation et de marchandisation nécessitent de contrer les solidarités, de casser les collectifs. Surmédiatiser la dénonciation de pans de la société qui seraient différents, voire séparatistes, sert bien ce but : même si on avait des envies de solidarités, on ne pourrait pas les partager avec des « séparatistes ».

    Ce mécanisme est très efficace, comme l’ont montré Alberto Alesina, Armando Miano et Stefanie Stantcheva. Ces chercheurs ont organisé une grande expérience contrôlée en faisant passer des questionnaires à 22 506 personnes en Allemagne, aux États-Unis, en France, en Italie, au Royaume-Unis et en Suède. Après avoir posé des questions personnelles permettant de mesurer leurs caractéristiques générales (âge, sexe, CSP, revenu, éducation, préférences politiques…) apparaissaient deux modules de questions spécifiques : l’un portait sur l’immigration (à la fois factuellement – combien y-a-t-il d’immigrés ? – et sur leurs préférences – y en a-t-il trop ?) l’autre module portait sur la redistribution (faut-il augmenter ou baisser certaines dépenses sociales ? Quel devrait être le taux d’imposition des plus riches ? des ménages médians ?...). Un des intérêts majeurs de l’expérience consistait à tirer aléatoirement pour chaque enquêté l’ordre dans lequel étaient posés ces deux modules.

    Le résultat est sans appel. Les personnes à qui on a demandé de réfléchir sur l’immigration avant de leur poser les questions relatives à la redistribution sont en faveur de bien moins de redistribution que celles à qui on a d’abord demandé de donner leur avis sur la redistribution ! Si on leur parle d’immigration juste avant, elles sont pour des taux d’imposition plus faibles sur les 1 % les plus riches, des taux plus élevés sur les revenus médians, des budgets sociaux plus faibles et pensent moins souvent que les inégalités sont un problème. Ceci reste vrai pour les personnes qui se disent de droite comme de gauche, pour celles qui ont un diplôme du supérieur comme pour celles qui n’en ont pas, pour celles qui travaillent dans un secteur où la part d’immigrants est supérieure ou inférieure à la moyenne nationale, pour les femmes comme pour les hommes.

    ***

    La séquence raciste actuelle, déjà partiellement ouverte sous la Présidence précédente et dans laquelle l’actuelle fonce tête baissée, ne fait pas que détourner l’attention sur leurs manquements politiques. Elle crédibilise les demandes autoritaires et discriminantes de l’extrême droite, lui offrant ce qu’elle demande depuis des décennies, au détriment de nos compatriotes discriminés. De plus, elle sape les volontés de solidarité de l’ensemble de la population, permettant d’accélérer le processus de désocialisation de notre économie.

    [retour ; haut de page]

    -->

    Assurance chômage : les non-dits du Conseil d'analyse économique

    Alternatives économiques, 16 février 2021

    Difficile, en période de crise, de remettre en cause les mécanismes sociaux dont tout le monde voit l’utilité, voire la nécessité. Mais on peut préparer le terrain pour mieux les réduire lorsque viendront des temps meilleurs.

    On peut, à cet égard, s’interroger sur la dernière note sur l’assurance chômage du Conseil d’analyse économique (CAE), organisme rattaché à Matignon. Ses auteurs, Camille Landais, Pierre Cahuc et Stéphane Carcillo, spécialistes des mécanismes économiques, y font principalement des recommandations d’ordre juridique, ou concernant la gouvernance de l’institution.

    N’étant ni expert politique, ni expert juridique, je ne m’attarderai pas sur ces aspects. On peut malgré tout s’inquiéter lorsque les auteurs proposent de « créer un Haut Conseil de l’assurance chômage (HCA) qui coordonne et prépare l’ensemble des prévisions, des études et des évaluations nécessaires à l’élaboration des règles de l’assurance chômage ».

    Selon eux, cette création est « essentielle pour faire émerger un consensus sur les conséquences des divers paramètres de l’indemnisation chômage et sur l’efficacité des diverses mesures d’accompagnement des demandeurs d’emploi. Tel n’est pas le cas à l’heure actuelle. »

    Or, créer une institution unique pour faire émerger un consensus au lieu d’alimenter le débat public et académique signe plutôt la volonté d’imposer un diagnostic sur les « bonnes recettes ». Difficile de ne pas penser au groupe d’experts Smic, composé de telle manière qu’il recommande chaque année de ne pas augmenter le salaire minimum, voire de le diminuer en modifiant son indexation.

    Questions de budget

    Venons-en toutefois aux propositions portant sur les mécanismes d’indemnisation eux-mêmes. Certaines sont formulées en termes très généraux. D’autres, en revanche, sont à la fois plus clairement identifiables en termes de mise en pratique et plus clairement liées à des arguments économiques.

    Les auteurs insistent en particulier sur la nécessité de renforcer la « contracyclicité » du système. Concrètement, cela signifie que les aides seraient plus fortes en période de crise qu’en période de croissance (si les aides sont au contraire plus fortes en période de croissance, on dit alors que le système est procyclique). Pour cela, les auteurs avancent la nécessité « d’assurer une dotation budgétaire à Pôle emploi indépendante des recettes de l’assurance chômage, afin de supprimer la composante procyclique de son financement ».

    C’est effectivement essentiel pour que l’assurance chômage joue son rôle de stabilisateur automatique, c’est-à-dire qu’elle injecte plus de revenus dans l’économie en période de crise. Or, comme le notent avec justesse les auteurs, les ressources du système sont principalement les cotisations assises sur les salaires (et maintenant une part de la CSG, elle-même assise sur les revenus) qui, logiquement, diminuent en période de crise. Il faut alors apporter au système les ressources supplémentaires nécessaires pour que l’assurance chômage continue de jouer son rôle en période de crise. Malheureusement, la note ne précise pas explicitement d’où viendraient ces fonds, ni selon quelles règles ils seraient versés.

    Ses auteurs semblent indiquer qu’un problème important de Pôle emploi (qui accompagne les chômeurs) est son financement principal par prélèvement proportionnel sur les recettes de l’Unédic (qui les indemnise). Pour corriger ce défaut, ils proposent « une gouvernance unifiée » des deux institutions qui « présenterait l’avantage de pouvoir réaliser les arbitrages les plus pertinents pour allouer les ressources à l’accompagnement et à l’indemnisation ».

    Or, la gouvernance unifiée ne change rien : si on garde des financements globaux procycliques et qu’on se contente d’unifier la gouvernance de l’accompagnement et de l’indemnisation, on aura, suivant les arbitrages, soit un accompagnement procyclique, soit une indemnisation procyclique, soit les deux en même temps, mais on n’aura pas réglé le problème.

    Une générosité à géométrie variable

    Une solution plus concrète est proposée pour renforcer la contracyclicité du système : il s’agirait d’une modulation de sa générosité entre périodes de crise et périodes de croissance, avec mise en réserve de fonds. On voit ici se dessiner les arguments pour justifier une nouvelle réduction des allocations à la sortie de la crise actuelle :

    « Recommandation 1. Instituer un pilotage de long terme des dépenses d’assurance chômage prévoyant un ajustement de l’indemnisation chômage (conditions d’éligibilité et durée d’indemnisation) en fonction d’indicateurs de l’activité économique afin de renforcer la contracyclicité de la dépense et de garantir la viabilité financière du régime. »

    Cette recommandation consiste en une contracyclicité individuelle : chaque individu qui perd son emploi serait individuellement moins bien indemnisé en période hors crise. Or, le principe de contracyclicité est avant tout macroéconomique : un plus grand nombre de personnes perdant son emploi en période de crise, le montant global des transferts augmente si les chômeurs restent bien indemnisés. Il n’y a aucune nécessité d’individualiser cette logique.

    A mon sens, une solution alternative à la contracyclicité individuelle proposée par cette note du CAE serait d’allouer des financements particuliers en période de crise, qui ne pèseraient pas sur les comptes de l’assurance chômage. Les paramètres de l’indemnisation et de son financement resteraient calibrés sur un budget équilibré en période normale.

    Cette proposition (équilibre du système hors crise, financements extérieurs de crise compensant le déséquilibre) est loin d’être une aberration : elle est au contraire dans la logique même du principe assurantiel. L’assurance correspond à la mutualisation des risques entre les assurés. Si les risques sont indépendants entre assurés (le fait qu’un assuré subisse un dommage ne change ni à la hausse ni à la baisse le risque encouru par les autres), alors le niveau de dommage à indemniser sera chaque année très proche du risque moyen. On peut dans ce cas prélever une cotisation égale à ce risque moyen, qui sera suffisante pour équilibrer les budgets.

    Mais si on regarde du point de vue de l’assurance chômage le long du cycle économique, le risque est partiellement corrélé, dans le sens où la probabilité qu’une personne tombe au chômage n’est pas indépendante du fait que les autres subissent le même sort. Cette probabilité individuelle est plus grande quand les autres sont également au chômage (période de crise) et plus faible quand les autres sont moins au chômage (période de croissance). Les cotisations ne suffisent pas et l’assurance chômage ne peut pas mutualiser la composante conjoncturelle du risque de chômage, elle la subit. L’assurance doit elle-même être assurée contre le risque conjoncturel.

    C’est là que l’Etat doit entrer en jeu pour permettre la constance de l’indemnisation du chômage. L’Etat peut en effet mieux lisser ses dépenses et recettes sur le long terme, en s’endettant en période de crise pour couvrir le coût conjoncturel et en laissant au système d’assurance chômage la couverture du risque « normal ».

    A l’opposé, les auteurs de la note du CAE proposent que le système d’assurance chômage couvre lui-même ce risque conjoncturel en le faisant porter sur les chômeurs en période hors crise. Pour ce faire, le taux de remplacement baisserait en période de croissance, dans le but de constituer des réserves ou afin de rembourser les déficits creusés en période de crise.

    La faute aux chômeurs

    Les auteurs insistent beaucoup, d’ailleurs, sur le fait que la crise a fortement mis sous tension les finances du système d’assurance chômage. Ils expliquent comment ceci a été organisé consciemment, en faisant prendre en charge par l’assurance chômage une part des dispositifs exceptionnels mis en place pendant la crise du Covid. En refusant de séparer l’ensemble des dettes Covid des comptes sociaux, le gouvernement a creusé les déficits des différents systèmes de protection sociale et préparé les besoins d’équilibrage des budgets. Dans ce contexte, la proposition d’une générosité individuelle contracyclique de l’assurance chômage semble tomber à pic.

    Reste que la véritable motivation est peut-être ailleurs : Pierre Cahuc, Stéphane Carcillo et Camille Landais souhaitent tout simplement une baisse générale de ces indemnisations, dont ils savent qu’elle est politiquement difficile à réclamer pour les périodes de crise.

    Il ne s’agit pas d’un délit d’intention : les auteurs avancent, pour justifier la fluctuation des paramètres d’indemnisation en fonction du cycle économique, « qu’il est plus difficile d’accéder à l’emploi » en période de crise. Autrement dit : ceux qui se retrouvent au chômage en période de croissance le sont par leur faute, et ne méritent pas d’être bien indemnisés. En période de crise, en revanche, les chômeurs ne sont pas responsables de leur sort et on peut les indemniser.

    Il s’agit là de l’argument classique de l’aléa moral : bénéficier d’une assurance réduirait les efforts pour éviter la survenue du dommage assuré. Or, si des études empiriques trouvent effectivement une corrélation entre la générosité des systèmes et la durée du chômage, cet effet reste quantitativement très faible.

    Un article récent montre qu’en Autriche le rallongement de neuf semaines de la durée maximum d’indemnisation n’a rallongé que de deux jours la durée moyenne d’indemnisation réelle. En revanche, ce même article montre que le rallongement de l’indemnisation induit des salaires plus élevés à la reprise d’emploi, et surtout permet de limiter drastiquement la part des chômeurs retrouvant une rémunération bien plus faible qu’avant leur perte d’emploi.

    Les auteurs de cet article interprètent ce résultat par le fait qu’une moindre pression à retrouver immédiatement un emploi permet une meilleure recherche et in fine un meilleur appariement entre les besoins de la nouvelle entreprise et les compétences de l’employé. Ces deux jours supplémentaires en moyenne semblent ainsi permettre aux assurés de trouver un meilleur emploi, du moins un emploi mieux rémunéré ; on peut aussi espérer qu’il s’agit d’un emploi plus pérenne.

    Une meilleure couverture par l’assurance chômage permet également aux salariés d’avoir un moins mauvais rapport de force dans l’entreprise. Ainsi, en plus de permettre de traverser de manière moins douloureuse les périodes de perte d’emploi (ce qui est le principe d’une assurance chômage) une indemnisation généreuse permet de soutenir les salaires, ce qui est important dans notre époque de creusement des inégalités.

    En Allemagne, les réformes Hartz du début des années 2000, qui visaient à réduire le pouvoir de négociation des employés en diminuant l’indemnisation du chômage, ont effectivement conduit à une forte chute des plus bas salaires : le salaire médian lui-même a décru en termes de pouvoir d’achat.

    L’assurance chômage est donc un outil de réduction des inégalités, non seulement après transferts (par le versement d’allocations), mais également avant transferts (en permettant de prendre le temps de trouver un emploi correctement rémunéré).

    Pour autant, de tels effets redistributifs s’opposent à la stratégie française de l’emploi, bloquée sur l’objectif de baisse du coût du travail. Cette stratégie du low cost est non seulement inégalitaire, elle est également inefficace.

    Bas salaires : une stratégie low cost

    Les auteurs de la note du CAE remarquent d’ailleurs incidemment certains effets néfastes de cette stratégie. Ils notent en particulier que la non-prise en compte de la prime d’activité dans le calcul des allocations chômage induit une baisse importante du taux de remplacement (pourcentage du dernier salaire qui sera perçu au titre de l’indemnisation chômage). Pour les ménages pauvres, perdre son emploi c’est perdre son salaire plein, mais aussi la prime d’activité, ce qui redouble l’impact que la crise a sur leurs revenus.

    Ce phénomène vient justement de la stratégie de baisse du coût du travail. On a bloqué le salaire minimum en termes réels, et compensé cette stagnation par des allocations : prime pour l’emploi à la fin des années 1990 (sous la forme d’un crédit d’impôt) puis, à partir de 2016, prime d’activité, davantage réactive et automatique. Elle constitue de fait une part de la rémunération du travail payée par l’Etat en lieu et place de l’employeur pour faire baisser le coût du travail qu’assume ce dernier.

    La stratégie de maintien relatif du niveau de vie par des primes, ou des réductions d’impôts et de cotisations, plutôt que par des revalorisations du salaire (hausse du Smic, renforcement du pouvoir de négociation des salariés) privilégie la redistribution sur la prédistribution des revenus. Cela a d’importantes conséquences.

    Tout d’abord, ces compléments de revenus, bien qu’ils s’agissent de fait de rémunérations du travail, n’ouvrent pas les mêmes droits sociaux qu’un vrai salaire : ni chômage, ni retraite, ni congés maladie.

    Ensuite, d’un point de vue politique, cela accrédite la thèse que ces travailleurs ont peu de valeur intrinsèque (leurs revenus de marché sont faibles) et qu’ils sont déjà beaucoup aidés par le système de redistribution. Ceci permet donc plus facilement d’accuser les Français d’être des assistés et ainsi demander une réduction plutôt qu’une augmentation des solidarités.

    Chômage et redistribution

    En ce qui concerne le caractère redistributif de l’assurance chômage, enfin, la note du CAE met plutôt en avant l’effet après transferts que l’effet sur les salaires : les salariés moins bien payés lorsqu’ils travaillent sont en moyenne ceux qui ont le plus de risque de passer par des épisodes de chômage. Ainsi, ils bénéficient en moyenne de plus d’allocations qu’ils ne contribuent, alors que c’est en moyenne l’inverse pour les salariés prétendant aux plus hautes rémunérations.

    On peut toutefois s’étonner de lire, dans le focus sur les recours à l’assurance chômage qui accompagne la note, que « l’assurance chômage sort donc de son rôle assurantiel pour procéder à des transferts entre individus ».

    Le cas où tous les assurés qui mutualisent leur risque ont exactement le même risque intrinsèque est une hypothèse d’école. Peut-être utile pour comprendre les principes assurantiels, elle n’a aucune réalité pratique : toutes les assurances redistribuent de fait des assurés les moins risqués vers les assurés les plus risqués – à moins, bien entendu, de mettre volontairement en place des mécanismes pour sélectionner les risques.

    Est-ce que la Cour de justice de l’Union européenne impose aux assurances de sortir de leur rôle quand elle leur interdit les discriminations tarifaires entre hommes et femmes ? Ceci oblige pourtant les femmes (statistiquement moins risquées) à payer aussi cher que les hommes leur assurance automobile.

    Non, les assurances ne sortent pas de leur mission en redistribuant (statistiquement) entre des personnes intrinsèquement plus ou moins risquées : c’est leur rôle. Au contraire, on pourrait regretter que, comme l’ont montré Michael Rothschild et Joseph Stiglitz il y a maintenant quarante-cinq ans, la privatisation des assurances et le renforcement continu de la concurrence les conduisent à chercher à segmenter toujours plus leurs marchés, à offrir des contrats d’assurance toujours plus différenciés, c’est-à-dire à démutualiser les assurances et à individualiser toujours plus nos sociétés.

    Il semble donc que, derrière une rhétorique qui acte l’utilité de l’assurance chômage, se cache le rappel des arguments préparant les futures attaques contre sa générosité : faire croire que les chômeurs en temps de croissance se complaisent dans l’inactivité car ils sont trop bien indemnisés.

    Par ailleurs, plutôt que de contrer les logiques de démutualisation et d’individualisation, on voit pointer du doigt l’importance de la redistribution, alors même qu’on creuse les inégalités avant redistribution.

    [retour ; haut de page]

    La famille, de soutien à dépendance

    Blog d'alternatives économiques, 15 décembre 2020

    La famille est un soutien, mais trop la prendre en compte dans les politiques sociales peut se retourner contre les individus les plus fragiles. C’est le cas des jeunes, avec le refus obstiné de leur ouvrir l’accès aux minima sociaux avant 25 ans, comme l’analysait sur ce site Nicolas Duvoux. C’est aussi le cas des femmes, qui sont parfois forcées de choisir entre des aides sociales ou une vie de couples : Céline Beissière et Sybille Gollac consacrent une partie de leur livre le genre du capital au cas de l’ASF (allocation de soutien familial), qui peut prendre le relai de la pension alimentaire non versée par le père pour ses enfants – ou la compléter si elle est trop faible – mais que la mère perd si elle se remet en couple ; la chroniqueuse Nicole Ferroni évoquait encore récemment le cas de personnes risquant de perdre tout ou partie de l’AAH (allocation aux adultes handicapés) si elles se remettent en couple.

    Ce billet est consacré à un autre mécanisme fiscal français qui part des mêmes motivations (prendre en compte le niveau de vie de la famille et non le revenu individuel) et qui arrive à des conséquences similaires (des inégalités socioéconomiques de genre et le renforcement des situations de dépendances). Il s’agit de l’imposition jointe des revenus au niveau du foyer fiscal. Il ne sera question que de l’imposition jointe des couples – la conjugalisation de l’impôt – la prise en compte des enfants nécessitant une réflexion à part entière. Après en avoir rappelé l’histoire et expliqué le principe et la justification, j’aborde la question de l’impact redistributif de ce mécanisme (en faveur des couples les plus aisés) et de son impact incitatif (il éloigne du marché du travail des femmes mariés, notamment parmi les couples modestes).

    Histoire de la conjugalisation de l’impôt sur le revenu en France

    « Chaque chef de famille est imposable tant en raison de ses revenus personnels que de ceux de sa femme et des autres membres de la famille qui habitent avec lui. »

    Article 8 de la loi du 15 juillet 1914 instituant l’IGR

    En France, l’impôt est prélevé au niveau du foyer depuis sa création en 1914 (couples mariés initialement, puis couples pacsés depuis 1999). Dans le cadre d’un impôt progressif, il importe de prendre en compte le fait qu’il puisse y avoir un ou plusieurs apporteurs de revenus. Initialement, cela s’opérait par des abattements sur le revenu imposable puis par une réduction d’impôt pour charge de famille (5 % de l’impôt calculé pour chacune des deux premières personnes à charge et 10 % pour les suivantes).

    Pour couvrir les dépenses engagées pendant la première guerre mondiale, l’impôt a été fortement augmenté après-guerre, et y a été ajoutée une majoration de 25 % pour les célibataires ou divorcés sans enfant et de 10 % pour les couples toujours sans enfant deux ans après leur mariage. Les taux globaux d’imposition ont été baissés en 1934 et la réduction pour charge de famille supprimée, mais les abattements ont été augmentés, ainsi que la majoration pour absence d’enfant (de 25 à 40 % pour célibataires et de 10 à 20 % pour les couples). La volonté d’incitation fiscale à la natalité ne faisait pas de doute.

    Prendre en compte les facultés contributives

    La fin de la seconde guerre mondiale a vu une réforme profonde de l’impôt sur le revenu. L’imposition est restée au niveau du foyer et le principe du chef de famille a été confirmé : l’article 6 du Code général des impôts disposait que « Les personnes mariées sont soumises à une imposition commune (…) ; cette imposition est établie au nom de l’époux ». Ce n’est que depuis le jusqu’au 30 décembre 2019 que la rédaction a été modifiée en « cette imposition est établie aux noms des époux ». Ce qui a changé en 1945, c’est la manière de prendre en compte cette taille du foyer, avec la création du mécanisme du quotient familial.

    Ce mécanisme suit de près les principes économiques de niveau de vie et d’utilité marginalement décroissante de la consommation, ce dernier ayant déjà pesé dans les arguments en faveur de la progressivité de l’impôt (cela mériterait un futur billet exclusivement sur ce sujet). Les premiers euros de revenus servent à pourvoir aux consommations absolument nécessaires, ils ouvrent une capacité contributive très limitée et sont taxés à taux faible. En revanche, lorsque le revenu s’élève, les euros additionnels (ou en moins du fait de l’impôt) financent des consommations de plus en plus accessoires et une même part prélevée par la fiscalité représente un moindre sacrifice : les taux d’impôt peuvent progresser avec le niveau de revenu. Or, si on partage les revenus à l’intérieur d’une famille, les revenus nécessaires à acheter les consommations essentielles (imposables à taux faible) croissent avec la taille de la famille. Il convient donc que la première tranche d’imposition s’accroisse également.

    Le Canada répond à cela à travers une conjugalisation uniquement de la première tranche d’imposition (celle à taux nul). Le revenu est censé être taxé de manière individuelle dès le premier dollar mais chaque contribuable bénéficie d’une réduction d’impôt correspondant à l’impôt dû pour la première tranche (12 069 $ pour l’impôt fédéral sur les revenus 2019). Or, si elle n’est pas entièrement imputée du fait de revenus inférieurs à 12 069 $, la partie non utilisée de la réduction d’impôt peut être transférée au conjoint de fait. On retrouve bien l’idée que ces premiers dollars par personne sont nécessaires pour les consommations de base et que dans un couple où un conjoint gagne moins et l’autre plus que ce seuil, une partie des revenus au-dessus du seuil de celui qui gagne plus servent à financer les consommations nécessaires de celui qui gagne moins. Cette partie est donc exemptée d’impôt.

    Le mécanisme du Quotient familial

    Le quotient familial français généralise ce mécanisme à tout le barème quand le Canada le cantonne à la première tranche uniquement. Le barème progressif peut être interprétée de la manière suivante : les premiers 10 064 € d’un célibataire servent aux consommations essentielles et ne sont pas imposés ; les 15 595 € suivants (jusqu’à 25 659 €) servent aux consommations importantes et sont taxés faiblement, à hauteur de 11 % ; les consommations payées avec les 47 710 € suivants (jusqu’à 73 369 €) sont secondaires et ces revenus sont plus fortement taxés, à hauteur de 30 %, etc. Si les membres d’un couple gagnent respectivement 80 000 € et 20 000 € après les divers abattements, le fisc français ne considère pas que les 6 631 € du premier au-dessus du seuil de 73 369 € servent à des consommations de luxe et ne les taxe pas à 41 % comme c’est le cas pour un célibataire. Ils sont considérés financer des consommations importantes (taxées à 11 %) et des consommations secondaires (taxées à 30 %) de son conjoint.

    Le calcul de l’impôt pour y arriver consiste à attribuer des parts pour chaque foyer (une part par membre du couple, une demie part pour les deux premiers enfants et une part pleine pour les enfants suivants et les enfants de parents isolés). Le revenu est ensuite divisé par le nombre de parts (ce qui donne une sorte de niveau de vie du foyer) et c’est ce niveau de vie qui est passé au barème progressif (avant d’être à nouveau multiplié par le nombre de part). Dans le cas précédent, le couple gagne 100 000 €, soit 50 000 € par part : l’impôt est donc 2 parts*10 064 € exonérés, 2 parts*15 595 € taxés à 11 % (3 430 €) et le reste (2 parts*24 341 €) est taxé à 30 % (14 604 €). Le couple se retrouve devoir 17 604 € sur ses 100 000 € après abattements. S’ils ne sont ni mariés ni pacsés, ses membres doivent respectivement 18 747 € et 1 093 €, soit 2 236 € de plus au total.

    Un dispositif favorable aux couples riches

    Le quotient familial est parfois présenté comme nécessaire pour respecter la constitution, en référence à l’article 13 de la Déclaration des droits de l’homme et du citoyen de 1789 : « Pour l'entretien de la force publique, et pour les dépenses d'administration, une contribution commune est indispensable : elle doit être également répartie entre tous les citoyens, en raison de leurs facultés. » Pourtant, il existe de nombreux autres moyens de tenir compte des facultés contributives. De plus, cet article 13 évoque la globalité des budgets publics et, pour le vérifier, il convient que tienne compte des facultés contributives l’ensemble du système de taxes et transferts et non uniquement une petite partie, en l’occurrence l’impôt sur le revenu qui ne rapporte que 7 % des prélèvements obligatoires en France.

    Le quotient familial est défendu sous l’argument qu’il prend en compte le niveau de vie (plutôt que le revenu) et qu’il permet ainsi d’imposer en fonction des facultés. Pourtant, l’adéquation avec le niveau de vie est bien plus lâche qu’il n’y paraît. Tout d’abord, ce mécanisme avantage très nettement les couples par rapport aux célibataires. En effet, il ne considère pas du tout les économies d’échelle à l’intérieur d’un foyer. Un couple gagnant 3 000 € par mois a le même taux d’imposition moyen qu’un célibataire gagnant 1 500 €, alors que ce dernier a un niveau de vie nettement inférieur. Le couple peut mettre en commun une part de sa consommation : il a besoin d’un appartement moins de deux fois plus grand qu’un célibataire et n’a besoin que d’une fois (et non deux fois) un certain nombre de biens, tels que le matériel électro-ménager, les abonnements internet…

    De plus, l’imposition jointe est d’autant plus favorable aux couples qu’ils sont riches. À partir d’un travail minutieux de micro-simulation, un document de l’INSEE mesure que le gain net1 de la conjugalisation est capté à 29 % par les 5 % de ménages les plus aisés, qui voient leurs impôts cumulés baisser de 3,2 milliards d’euros en 2017. Pour arriver au même montant, il faut additionner les gains nets des 60 % des ménages les plus modestes.

    Travail rémunéré et travail non rémunéré

    Par ailleurs, le quotient conjugal considère que la manière dont les gains de revenus sont répartis à l’intérieur d’un couple n’influe pas sur les niveaux de vie de chacun des membres. Pourtant, de nombreuses études ont prouvé l’inverse. Une étude sur la France, qui malheureusement commence à dater, est particulièrement éclairante. Delphine Roy y montre que la composition des dépenses des couples dépend de qui apporte les revenus. Certains postes sont plus sensibles aux revenus de l’homme que de la femme : achat de voitures neuves pour les cadres et dépenses de bricolage pour les ouvriers, mais aussi vêtements féminins. À l’inverse, les dépenses de soins hors du foyer – notamment de garde d’enfant – sont très sensibles à l’emploi de la femme. À emploi donné de la femme, les dépenses pour l’externalisation de l’entretien du logement dépendent plus fortement des revenus de la femme que de ceux de l’homme.

    Cette question met au jour un autre point important. Un couple où un membre gagne 4 000 € et l’autre ne travaille pas et un couple où les deux gagnent 2 000 € n’ont pas le même niveau de vie : dans le premier, le membre qui n’est pas rémunéré pour son travail peut contribuer plus fortement au niveau de vie du ménage par de la production non-marchande (garde d’enfants, entretien du logement…).

    Pourquoi l’imposition jointe freine les carrières féminines

    Outre son impact redistributif en faveur des couples – en particuliers les plus aisés et ceux dont un membre n’a pas d’emploi – l’imposition jointe a des effets néfastes sur la participation des femmes mariées au marché du travail. Dans le cadre de leur analyse des négociations de divorces dans le genre du capital, Céline Beissière et Sibylle Gollac rapportent le discours d’une femme pendant une réunion de conciliation : « On a fait le choix ensemble que je travaille à temps partiel. Pour ne pas donner plus au fisc, déjà qu’on en donne beaucoup. C’est pas à 54 ans que je vais travailler à temps plein ». Cette déclaration illustre le fait que c’est le plus souvent le travail de la femme qui est sacrifié à des décisions d’optimisations fiscales, et que cela entraine des effets à long terme.

    La conjugalisation est formellement neutre au genre. Dans la pratique, du fait qu’elle s’applique à des couples dont les décisions ne sont pas neutres au genre, elle peut renforcer les inégalités. Dans un couple hétérosexuel où l’homme cherche à travailler quel que soit le taux d’imposition et où la participation de la femme est sujette à question, l’imposition jointe s’avère désincitative. En effet, les salaires du mari bénéficient des droits à bas taux d’imposition de sa femme si celle-ci ne travaille pas. En revanche, si elle décide de travailler, non seulement ses salaires sont taxés mais ceux de son mari perdent leurs droits à bas taux. Une autre manière de dire la même chose est que la conjugalisation diminue l’imposition des salaires des époux et augmente celle des salaires des épouses dans les couples asymétriques.

    Preuves empiriques de l’impact de la conjugalisation sur l’emploi féminin

    Cet impact désincitatif a été confirmé par l’analyse statistique de réformes fiscales : Håkan Selin mesure que l’individualisation de l’impôt en Suède a engendré une hausse de 9 points de pourcentage de la participation féminine ; Klára Kalíšková mesure que la réforme inverse en République Tchèque en 2005 a causé un recul de 3 points de pourcentage des femmes actives.

    Pour ce qui concerne la France, je viens de publier un article qui analyse l’emploi des femmes mariées en fonction des autres revenus de leur foyer (salaires du mari et revenus du patrimoine). La participation des femmes est d’abord croissante puis stable avec les autres revenus du foyer, mais cette évolution globale est entrecoupée de chutes de taux d’emploi chaque fois que l’augmentation des autres revenus du foyer fait passer l’imposition du salaire potentiel de l’épouse dans une tranche d’imposition supérieure. Le graphique ci-dessous montre, pour l’année 2005, le taux de participation des femmes mariées en fonction des autres revenus de leur foyer, lorsque ceux-ci placent l’imposition de leurs salaires potentiels autour de la cinquième tranche du barème.


    Source: Carbonnier (2020) Imposition jointe des revenus et emploi des femmes mariées : estimation à partir du cas français, Revue Économique

    À partir de ces observations, et en corrigeant pour les autres caractéristiques du foyer pouvant expliquer l’inactivité de l’épouse, il est possible de mettre en lumière le fait que l’imposition jointe a un impact substantiel sur l’activité féminine en France. Les femmes plus âgées répondent plus aux incitations fiscales, et encore plus si leur mari est retraité. On observe aussi une dépendance plus forte de la participation à l’impôt pour les femmes ayant trois enfants ou plus. Malgré une remontée de la sensibilité pour les femmes bénéficiant d’autres revenus particulièrement élevés, il apparaît que l’impact désincitatif décroit avec les autres revenus du foyer. En particulier, cet impact est très fort autour de la première tranche de l’impôt sur le revenu.

    Conclusion

    Ce billet s’est concentré sur la question de la conjugalisation de l’impôt, qui n’est qu’une part du système du quotient familial français. L’autre partie, tenant compte des personnes à charge et particulièrement des enfants, fera l’objet d’un billet ultérieur. Pour ce qui concerne l’imposition des couples mariés et pacsé, le système français avantage fortement les couples en comparaison des célibataires de niveau de vie identique. Cet avantage est d’autant plus important que le niveau de vie du foyer est confortable. De plus, ce mécanisme renforce les écarts d’activité rémunérée entre les hommes et les femmes, de manière particulièrement importante pour les foyers modestes. Il contribue donc à rendre les femmes de ces foyers plus dépendantes de leur mari.

    • 1. On parle de gain net car il faut déduire des gains des gagnants les pertes des perdants, mêmes si ces dernières sont bien plus rares et plus faibles

    [retour ; haut de page]

    Inégalités sociales devant la garde d’enfant et inégalités de genre sur le marché du travail

    Blog d'alternatives économiques, 11 novembre 2020

    Le parlement discute actuellement le rallongement du congé paternité et le fait d’en rendre une partie obligatoire. Une telle mesure, outre qu’elle permettrait aux pères une plus forte présence auprès de leurs nouveaux nés, est aussi défendue sous l’angle des inégalités de genre dans le sens où elle rééquilibrerait la pénalité parentale entre les hommes et les femmes sur le marché du travail. Or, comme le rappelle Martin Anota dans un post de blog récent, cette pénalité – en termes de creusement permanent des écarts salariaux – est encore substantielle dans la plupart des pays, dont la France. Ce post présente des études, en Autriche dernièrement et en France auparavant, qui montrent que l’arrivée d’un enfant influe à court terme sur la participation des mères et non des pères, et garde à plus long terme des conséquences sur les salaires des mères.

    Il y a quelques années, Laurent Lequien avait montré dans le cas français le lien causal entre le congé parental et la baisse permanente des revenus des mères. Le congé parental diffère des congés maternité ou paternité en ce qu’il est plus long, potentiellement jusqu’au trois ans de l’enfant. C’est d’ailleurs une des raisons pour laquelle Hélène Périvier défendait non seulement le rallongement et le caractère obligatoire du congé paternité, mais également des mesures sur le congé parental – calquées sur la Suède où elles semblent fonctionner – visant à augmenter le partage de ces congés entre les pères et les mères. Dans son post, Martin Anota introduit le sujet en parlant des politiques familiales en général, citant non seulement les congés parentaux mais également les aides à la garde d’enfant. Mais il ne détaille pas ces dernières. Ce sont sur ces politiques de garde d’enfants que je souhaite ici revenir.

    Un constat sur les différences de participations

    Avant d’aborder directement la garde d’enfants, ainsi que ses liens avec les congés parentaux, il peut être utile de présenter un premier constat en comparaison internationale. Lors de notre étude sur les services à la personne avec Nathalie Morel, nous avions constaté un profil très particulier des différences genrées de participation au marché du travail selon le niveau de diplôme des parents et l’âge des enfants. Le graphique 1 résume ces caractéristiques en montrant, pour diverses catégories de diplôme des parents et d’âge des enfants, le ratio du taux de participation des pères et des mères.

    Graphique 1

    Pour l’ensemble de la population, la participation relative des femmes comparée à celle des hommes est de 90 % en France comme en Allemagne (soit le fait que les femmes sont en moyenne 10 % de moins en emploi que les hommes), ce qui est intermédiaire entre la Suède (qui fait un peu mieux) et le Royaume-Uni et l’Espagne (qui font un peu moins bien).

    Toutefois, les comparaisons changent selon les types de parents concernés. Lorsqu’on regarde les parents d’enfants âgés (plus de 12 ans) tous les pays sont très proches les uns des autres pour les parents diplômés du supérieur (au-dessus de 100 %, ce qui signifie que les mères diplômées du supérieur sans enfant en bas âge sont plus souvent en emploi que leur équivalent masculin). Pour les mères sans diplôme ayant des enfants âgés de plus de 12 ans, le taux de participation relatif aux hommes reste élevé en France comparé aux autres pays, ce qui semble indiquer qu’il n’y a pas de pénalité marquée contre les mères peu diplômées en France. De même, il ne semble pas y avoir de pénalité contre les mères d’enfants en bas âge en France quand celles-ci sont diplômées (dans cette catégorie, seule l’Allemagne décroche).

    En revanche, il est une catégorie pour laquelle la France fait nettement moins bien que ses voisins (hormis l’Allemagne) : les femmes peu qualifiées avec enfant en bas âge. On voit donc ici une particularité de la France, qui n’est pas due seulement au niveau de qualification des mères, ni seulement à l’âge de leur enfant, mais bien à l’intersection des deux (et ce n’est pas un gros mot). Les inégalités de genre et les inégalités sociales semblent ici interagir.

    Lien avec la forme des politiques

    Cette interaction, ou cette intersection, se retrouve dans les politiques de garde d’enfants. Lorsque nous avions abordé avec Nathalie Morel cette question par le flanc des services à la personne dans notre livre Le retour des domestiques, nous nous étions aperçu que l’accès à la garde d’enfants était particulièrement plus inégal en France que dans d’autres pays, comme le montre le graphique 2.

    Graphique 2

    Ainsi, et comme souvent pour le cas de la France, le niveau moyen d’accès à la garde formelle (garde opérée par un.e professionnel.le : puéricultrice en garde collective, assistante maternelle, garde à domicile) est relativement élevé en comparaison internationale ; mais cet accès est particulièrement inégalitaire puisque l’écart de garde formelle selon le niveau de revenu (en l’occurrence ici le ratio de taux d’accès entre le tiers des parents les plus modestes et le tiers des parents les plus aisés) est le plus fort des pays pour lesquels l’OCDE fournit des données. Un ratio de 20 % pour la France signifie que les enfants de moins de trois ans dont les parents sont dans le tiers inférieur de la distribution des revenus ont cinq fois moins de chances d’être gardés par un.e professionnel.le (et donc cinq fois plus de chances d’être gardés par leur mère, ou éventuellement leurs grands-parents) que les enfants dont les parents appartiennent au tiers supérieur de la distribution des revenus.

    Une première explication de ce phénomène pourrait résider du côté de la demande de garde formelle, en lien avec les congés parentaux. On a vu plus haut que les congés parentaux avaient un impact substantiel sur la participation des mères au marché du travail. Or, lorsque ceux-ci sont accompagnés d’allocations forfaitaires (et non proportionnelles au salaire), ils se retrouvent bien plus pénalisants financièrement pour les mères à haut salaire que pour celles qui ne pourraient prétendre qu’à de faibles rémunérations sur le marché du travail. Ceci pourrait expliquer que les mères ayant de moins bonnes opportunités professionnelles prennent plus souvent des congés parentaux et en conséquence demandent moins souvent des places de garde formelle pour leurs enfants.

    Les politiques de garde d’enfant en France

    Ce mécanisme est probable mais il n’explique pas tout. D’ailleurs, la principale différence entre la France et les pays auxquels elle est comparée dans les deux graphiques ne concerne pas tant les congés parentaux que la manière d’organiser l’offre de garde formelle. Ainsi, une note de France Stratégie montrait que le taux de couverture des enfants de moins de trois ans en garde collective avait stagné en France – et même légèrement baissé – entre 2006 et 2015, restant légèrement inférieur à une place pour cinq enfants. Pendant le même temps, le mauvais élève historique de la garde d’enfants, l’Allemagne, avait rejoint et même nettement dépassé la France de ce point de vue.

    Une des explications de cette stagnation des places en garde collective en France réside dans le poids très fort mis dans la garde individuelle, par des assistantes maternelles ou des gardes à domicile. Ceci a été motivé principalement par la volonté de contrôler les dépenses publiques. En effet, les gardes individuelles permettent d’économiser des coûts d’infrastructures (indépendamment de la question de l’utilité de ces infrastructures sur le développement des enfants). Or, le reste à charge pour les parents diffère entre les différents modes de garde.

    Si on prend le cas de la garde à domicile, subventionnée par un crédit d’impôt de 50 % des dépenses engagées (plus une allocation forfaitaire sous condition de ressources), le reste à charge varie peu avec le revenu. À l’inverse, le tarif en crèche est directement proportionnel aux revenus. Ainsi, si la garde à domicile peut s’avérer moins onéreuse pour les ménages les plus riches (surtout en garde partagée), elle reste hors de portée financière pour les ménages modestes, et même les ménages à revenus moyens. Ceci participe clairement de l’inégal accès aux modes de garde entre les mères selon leur niveau de revenu.

    Bien entendu, d’autres vecteurs sont en jeu dans ces différences socioéconomiques d’accès à la garde d’enfant. Les intersections à prendre en compte devraient être encore plus importantes, et comprendre entre autres les différences géographiques ou de classes sociales (avec des différences non seulement de revenu comme évoqué ci-dessus mais également de relations sociales et d’entregent). Il est d’ailleurs à noter que même l’accès à la garde collective est bien plus fort chez les enfants de cadres que chez les enfants d’ouvriers ou d’employés.

    Conclusion

    Ce que j’ai tenté d’illustrer ici est qu’il n’y a pas que le niveau d’investissement public dans les politiques familiales qui compte, la forme de celui-ci importe aussi. Les caractéristiques suédoises des congés parentaux (avec des quotas réservés aux pères et des bonus si le père prend effectivement une part du congé, voir le policy brief d’Hélène Périvier) semblent induire moins d’inégalités genrées de salaires post-maternité. La politique française de subventionnement public de la garde d’enfant privée et individuelle semble quant à elle pénaliser spécifiquement les mères peu qualifiées.

    [retour ; haut de page]

    La gauche, la question sociale et les questions sociétales

    Blog d'alternatives économiques, 20 octobre 2020

    Il y a peu, Gilles Raveaud a publié sur ce site une chronique où il discutait de la possible union de la gauche pour les présidentielles, non en termes de stratégie politique mais au sujet des dissensions sur le fond. Il décrivait ce qui constitue pour lui les trois grandes fractures qui divisent la gauche : l’Europe, l’écologie et la lutte contre les discriminations (qu’il nomme la question des identités). Si la description est malheureusement convaincante, elle brille par une ellipse essentielle, la question sociale, qui est pourtant très loin de faire consensus au sein de la gauche.

    Mais qu’est-ce que la gauche ? Gilles Raveaud se demande en fin de chronique « si le mot « gauche » a encore un sens ». Si on cherche une définition basée sur les idées, ce terme pourrait rassembler les personnes qui ont des vues communes sur la question sociale. Il convient alors de définir cette question sociale. Sans entrer dans les détails, notons que ce que j’entends ici pourrait se rapprocher de la définition de Robert Castel, à savoir la manière de traiter le « hiatus entre l’organisation politique et le système économique », ce qui correspond également à la manière de réguler le capitalisme, telle qu’étudiée par la littérature sur les variétés de capitalismes. Parmi les éléments centraux de cette question sociale se trouvent le niveau des solidarités et le poids relatif des mécanismes de marché et des processus socialisés pour coordonner les activités productrices. La gauche se différencierait alors de la droite en souhaitant un niveau plus élevé de solidarité et une part plus importante des processus socialisés.

    Or, quand on parle d’union de la gauche, on parle de l’ensemble des personnalités politiques, militants, sympathisants ou potentiels électeurs qui pourraient s’assembler pour proposer une alternative aux droites et à l’extrême droite lors des prochaines élections, notamment présidentielles. Il me semble que cette définition électorale de la gauche – que nous conserverons tout au long de ce texte – regroupe des personnes dont les avis sont tout autant divergents sur cette question sociale que sur ce qu’on appelle souvent les questions sociétales, à savoir les trois thèmes évoqués par Gilles Raveaud – l’Europe, l’écologie et les discriminations. Plus encore, je pense que ce sont bien ces divergences sur la question sociale qui sont structurantes et que les désaccords sur les questions sociétales cachent en partie des fractures essentielles sur celle-ci. Reprenant une part une les trois fractures sociétales, je vais essayer d’expliquer de quelle manière elles relèvent aussi de désaccords profonds sur la question sociale.

    1. L’Europe

    L’exposition par Gilles Raveaud des côtés de la fracture européenne montre implicitement l’ambivalence qui existe entre l’expression d’une volonté d’Europe à gauche et le sentiment que celle qui existe actuellement est une nuisance. En réalité, les deux peuvent exister en même temps et on pourrait croire que la fracture à gauche est plus stratégique que sur le fond : l’ensemble de la gauche serait d’accord pour une autre Europe mais une partie d’entre elle pense qu’on peut la modifier suffisamment de l’intérieur quand une autre partie pense qu’on ne peut y arriver qu’en rupture avec l’Europe existante. Il s’agirait de la lutte classique entre les réformistes et les révolutionnaires. Je pense que la fracture est plus profonde.

    La construction de l’Union Européenne actuelle

    Avant d’étayer mon propos sur les différentes positions dans la gauche électorale, il est utile de rappeler la manière dont a été construite notre Union Européenne. Je ne reviens pas sur les motivations initiales, et notamment la préservation de la paix, mais sur les traités, devenus au fur et à mesure constitutionnels. Construit sur des bases principalement commerciales, le traité sur le fonctionnement de l’Union européenne évoque la question sociale, mais uniquement sous forme de déclarations d’intentions, sans s’en donner les moyens, voire en construisant les freins institutionnels au progrès social.

    Ainsi, l’article 151 pose bien que « l’Union et les États membres (…) ont pour objectifs la promotion de l’emploi, l’amélioration des conditions de vie et de travail, permettant leur égalisation dans le progrès, une protection sociale adéquate, le dialogue social, le développement des ressources humaines permettant un niveau d’emploi élevé et durable et la lutte contre les exclusions. » Mais il précise rapidement dans l’article 153 que pour ce faire, aucune action d’harmonisation n’est permise : « À cette fin, le Parlement européen et le Conseil peuvent adopter des mesures destinées à encourager la coopération entre États membres par le biais d’initiatives visant à améliorer les connaissances, à développer les échanges d’informations et de meilleures pratiques, à promouvoir des approches novatrices et à évaluer les expériences, à l’exclusion de toute harmonisation des dispositions législatives et réglementaires des États membres. »

    Il n’est donc absolument pas question de légiférer ou réglementer sur la question sociale car le principe même de la manière dont on espère que celle-ci sera traitée en Europe est clairement établie dans l’article 151 : « Ils [l’Union et les États membres] estiment qu’une telle évolution résultera (…) du fonctionnement du marché intérieur, qui favorisera l’harmonisation des systèmes sociaux. » Ainsi, les règles mêmes de la construction européenne mettent en concurrence les entreprises des pays membres, et à travers elles leurs législations nationales, en leur donnant comme principal levier la baisse de leurs coûts via la baisse des salaires et des protections sociales, notamment au profit des actionnaires qui peuvent faire de l’optimisation fiscale intensive, difficile à empêcher dans le cadre des traités.

    Or, il n’est absolument pas nouveau de savoir que le fait de restreindre les possibilités d’harmonisation contraignante (en particulier à la hausse des protections), en attendant de la concurrence sur les marchés qu’elle harmonise les politiques sociales, mène à une baisse des protections dans une concurrence au moins disant social. C’était d’ailleurs une des motivations de la création de l’Organisation International du Travail en 1919 que de tenter d’imposer mondialement des mesures contraignantes et coordonnées de protection du travail pour ne pas laisser cette législation aux États en concurrence. Le préambule de la constitution de cette institution internationale justifiait dès le départ sa création dans ce sens : « la non-adoption par une nation quelconque d’un régime de travail réellement humain fait obstacle aux efforts des autres nations désireuses d’améliorer le sort des travailleurs dans leurs propres pays. »

    Volonté de ne pas risquer la stabilité européenne ou accord avec la politique économique néolibérale ?

    Une fois ce point énoncé sur la question de l’Union Européenne actuelle, il est important de rappeler que ces choix ne sont pas des accidents de l’histoire. L’Europe a été volontairement construite ainsi par des hommes politiques qui se considéraient de gauche et qui sont encore considérés de gauche par des personnes qui pourraient faire partie de l’union électorale de la gauche. Cette construction a, entre autres, été pensée comme une manière de s’assurer que les réformes structurelles néolibérales soient passées malgré les oppositions à gauche. On peut d’ailleurs voir que même s’il est vrai que l’Union Européenne contraint les possibilités des politiques sociales, il est possible de faire plus et mieux dans le cadre actuel pour renforcer les solidarités ou développer la production hors marché. Pourtant, même à gauche, on est loin de vouloir utiliser toutes ces possibilités, preuve que l’Europe est peut-être davantage une excuse permettant de ne pas formuler explicitement les véritables désaccords sur ces questions sociales.

    Pour donner des exemples, on est forcé de revenir aux années pendant lesquelles les socialistes étaient au pouvoir ; l’union de la gauche électorale, pour avoir une masse critique nécessaire, comprend au minimum une partie de ceux qui les ont soutenus. Ainsi, les lois « travail » votées sous la présidence Hollande sont allées au-delà de la diminution du niveau de la protection des travailleurs imposée par l’Union Européenne.

    Un autre exemple est donné par le cas des complémentaires santé. Les directives Européenne ont forcé la mise en concurrence des mutuelles avec les compagnies d’assurance, ce qui a amené l’ensemble du secteur à des comportements de sélection des risques. Rien d’étonnant à cette désolidarisation de l’assurance santé : c’est exactement ce que prévoyait la théorie économique standard comme conséquence à une telle mise en concurrence. Dans ce contexte, les choix des gouvernements de gauche et de leurs alliés n’a pas été de plus socialiser mais au contraire de continuer à couper les dépenses de santé socialisées, à faciliter les « petits » dépassements d’honoraires et à renforcer la place des complémentaires – devenues de moins en moins solidaires – dans la protection maladie, enracinant les inégalités d’accès. Je doute qu’il y ait un consensus à gauche sur cette question de l’assurance maladie par exemple, même indépendamment de la question européenne.

    Pour revenir à cette question européenne, une vraie fracture divise la gauche électorale entre ceux qui veulent menacer de rupture pour obtenir des changements (quitte à sortir effectivement si le chantage ne fonctionne pas) et ceux qui souhaitent surtout ne pas risquer un tel scénario et cherchent à peser de l’intérieur dans les réorientations européennes. Toutefois, cette divergence tactique sur la question européenne reflète aussi une vraie divergence sur la hiérarchie des objectifs politiques sur la question sociale. Quelles que soient les divergences, il est difficile de se mettre d’accord sur les avantages et inconvénients de l’Union européenne si on n’est en fait pas d’accord sur le caractère souhaitable ou non de ce que permet ou interdit l’appartenance à cette Union en termes de politiques sociales et de régulation du capitalisme.

    2. l’écologie

    Sur l’écologie, la présentation de Gilles Raveaud du débat interne à la gauche me semble encore une fois assez juste, mais elle fait encore l’impasse sur la question de la régulation du capitalisme, qui est pourtant très présente au sein de la gauche électorale, au moins implicitement. À l’en croire, il s’agirait presque uniquement de se poser la question de savoir si on limite ou non la pollution et la production.

    La croissance via les marchés ou la lampe à huile

    Surtout, la présentation insiste peu sur la manière de répartir l’effort de réduction, ce qui revient implicitement à supposer qu’une éventuellement limitation se ferait en laissant les mécanismes de marché décider de qui baisse sa production et de qui baisse sa consommation. On retrouve un peu la manière qu’a eu Xavier Timbeau de poser le débat sur la question de la décroissance dans une interview sur ce site :

    "Il y a en gros deux grandes voies en matière de contrainte environnementale. La première consiste à décarboner notre économie, ce qui implique de décarboner la production d’énergie – concrètement substituer les fossiles par les renouvelables – et, pour y parvenir, réduire également l’énergie que nous consommons par des gains d’efficacité. La deuxième voie, c’est la sobriété radicale."

    Effectivement, si on se contente de mettre en place des systèmes de signal-prix – c’est-à-dire avoir une intervention publique qui se contente de faire prendre conscience aux marchés du coût environnemental de ses productions en augmentant le prix d’équilibre via des marchés de droits à polluer ou des taxes vertes – on tombe assez vite sur un dilemme écologie versus égalité. Mais c’est uniquement parce qu’on considère comme acté que ce sont les mécanismes de marché qui doivent décider de toutes les productions et de leur répartition. Xavier Timbeau le note un peu plus loin : « Du point de vue économique, la régulation par le prix est ce qu’il y a de plus efficace. Mais pas du point de vue social. »

    La seconde phrase est on ne peut plus juste, mais la première n’est pas vraie pour autant et devrait amener à ouvrir les discussions sur d’autres voies que la seule régulation par les prix. Pourtant, parmi ceux et celles qui constitueraient la potentielle union électorale de la gauche, une bonne partie continue de croire que cette première phrase est vraie. Cette supposée efficacité économique de la régulation par les prix repose sur l’idée que les mécanismes de marchés allouent les ressources rares à leur usage le plus utile.

    L’écologie de marché

    Appliqué à la question de l’écologie, ce raisonnement consiste à dire que pour diminuer la pollution, il faudrait limiter les pollutions les moins nécessaires ou utiles et conserver celles qui seraient les plus nécessaires ou utiles. Or, comment le marché opère-t-il cette allocation ? En allouant aux plus offrants ! C’est-à-dire en allouant aux consommateurs qui ont la plus forte disposition à payer. Cette idée de l’efficacité allocative des marchés a été développé par la théorie économique standard, mais elle a en même temps constaté dès le XIXème siècle que cette disposition à payer est loin de ne refléter que l’utilité de la consommation : elle dépend surtout de la capacité à payer de l’individu, de sa richesse et de son revenu. Sans même parler de justice sociale, est-ce que les vols de plaisance Sydney-Sydney – pour lesquels on trouvera toujours des consommateurs disposés à payer – sont plus utiles à l’économie que la plupart des activités qui diminueraient si on augmentait les taxes vertes ?

    Il me semble donc que derrière la question écologique globale se pose avant tout la question sociale, c’est-à-dire la question de la répartition des efforts et des richesses. Le mouvement des gilets-jaunes nous en donne une illustration. Il est apparu à la suite de l’augmentation d’une taxe verte sur les carburants, mais les motivations étaient multiples et antérieures, liées principalement aux questions de pouvoir d’achat mais également à la justice fiscale…

    Continuons à raisonner selon la théorie économique standard utilisée pour justifier la régulation par signal-prix, c’est-à-dire cette taxe verte qui a mis le feu aux poudres jaunes. L’efficacité de cette politique pour réduire la pollution dépend de manière cruciale des alternatives qui s’offrent aux consommateurs. Ces alternatives dépendent de leurs revenus (en lien eux-mêmes avec les politiques pré-distributives et redistributives), de leurs besoins (en lien avec les politiques d’aménagement du territoire et les politiques de logement) et des moyens alternatifs qu’ils peuvent avoir pour se déplacer (en lien avec les politiques de transport et les investissements réalisés dans les infrastructures publiques).

    Or, tous ces thèmes, qui composent eux-mêmes la question sociale, ne sont pas considérés de façon unanime à gauche. C’est ainsi autour de désaccords profonds quant à ces politiques relevant de la question sociale (politiques redistributives, de logement, de transport…) que se fondent en réalité les désaccords sur les questions écologiques au sein de la gauche électorale.

    3. Les discriminations

    Pour les discriminations aussi le débat à gauche est clivant et il semble qu’il se présente formellement comme Gilles Raveaud le décrit. Peut-être effectivement est-il le débat le plus indépendant de la question sociale, divisant des personnes partageant profondément d’autres valeurs. Pour autant, je pense que derrière des arguments « universalistes », il cache des vérités moins nobles. Commençons tout d’abord par remarquer que contrairement aux deux précédentes fractures, celle-ci semble bien moins traverser la droite. Remarquons ensuite que les termes du débat sont en grande partie énoncés par la droite, voire l’extrême droite, et que c’est la droite qui remet la question sur le tapis dès que sa politique économique est remise en question : lorsque la droite fait face à des contestations quant à son traitement inégalitaire et violent de la question sociale, elle lance la diversion du communautarisme, et ça marche !

    Qui est réellement séparatiste ?

    Gilles Raveaud a choisi de définir ce débat autour des identités quand je préfère parler de luttes contre les discriminations. Les notions d’identitaires, de communautarismes et maintenant de séparatismes ont toujours été forgées et imposées par la droite. Un premier lien avec la question sociale se retrouve ici car on a beaucoup lu de dénonciations portant sur le fait qu’en s’occupant des discriminations liées à la race, au genre ou aux préférences sexuelles, on ne pouvait que laisser tomber celles liées à la classe sociale. Pourtant, il n’y a pas de vases communiquant entre toutes ces luttes, il n’y a pas de substituabilité entre elles mais bien de la complémentarité. En effet, les personnalités politiques comme les intellectuels ou les militants qui freinent sur le front des luttes contre les discriminations sont loin d’être les plus actives sur le front des luttes de classes, ou alors de l’autre côté du front.

    Le concept de séparatisme est une invention ayant pour but de discréditer les militant.e.s anti-discriminations. Un exemple marquant et récent nous est donné par le scandale qui a émergé autour du partage d’une « liste de médecins communautaires ». Dans une tribune sur AOC, Daniel Delanoë et Marie Rose Moro décryptent cet évènement et montrent comment a été instrumentalisée une solution de système D de victimes de racisme (solution qui serait certes très mauvaise si le racisme n’existait pas dans le milieu médical mais qui est peut-être un pis-aller de sauvegarde dans une situation où ce racisme existe de fait) pour discréditer une association dont l’action anti-raciste était au contraire inclusive, visant à déconstruire les préjugés racistes dans les professions médicales pour justement éviter que des victimes aient encore besoin à l’avenir de ces pis-aller de sauvegarde. Dans son article sur La Croix traitant du sujet, Laureline Dubuy écrit :

    Anonymes sur Twitter, les membres de ce collectif organisaient dans la vie réelle des réunions, ouvertes à tous les soignants pour évoquer la question du racisme dans le domaine de la santé. Des membres du syndicat des jeunes médecins généralistes y ont participé. « Ce collectif ne faisait pas la promotion d’un séparatisme mais au contraire militait pour une prise de conscience des soignants, raconte Julien Aron, chargé de mission sur les discriminations au sein du syndicat. C’est très intéressant de pouvoir déconstruire les stéréotypes avec les personnes concernées, qui partagent leur expérience ».

    Dans la majeure partie des cas, les victimes ne souhaitent simplement plus subir de discriminations. Elles peuvent avoir d’autres points communs, parfois forts, parfois très faibles, mais ce qui les rassemble est avant tout le fait de subir les mêmes discriminations : ce peut être un ciment très fort quand ces discriminations ont un impact important sur la vie des victimes. Elles se retrouvent alors en groupe de défense, aidées parfois par des militant.e.s qui ne subissent pas les mêmes violences, mais parfois aussi uniquement entre victimes potentielles, c’est-à-dire en groupes non mixtes qui sont alors pointés du doigt.

    Or, à cause de l’omniprésence des contextes qui les rabaissent, il peut arriver que les victimes intègrent l’image dévalorisante qu’ont d’eux leurs oppresseurs, ou qu’elles soient traumatisées par leurs peurs. Alors, du travail sur soi-même entre semblables (au sens de subissant les mêmes discriminations) peut être utile voire nécessaire pour se sentir plus fort en n’étant pas seul à subir, pour travailler entre victimes potentielles sur la manière de lutter contre ces discriminations, ou simplement pour prendre conscience que ce qu’on subit n’est pas normal. Dans ces cas, voyant le danger, ceux qui veulent discréditer ces luttes anti-discrimination s’empressent de traiter ces activités non-mixtes de séparatistes. C’est là où les non-racistes et non-sexistes ne doivent pas tomber dans le piège tendu par les racistes et les sexistes.

    Le lien avec l’argument des « abuseurs » pour justifier les coupes sociales

    Le lien avec la question sociale ne s’arrête pas là. Les freins contre les luttes anti-discriminations ne sont pas que des pièges de racistes et de sexistes, mais aussi de ceux qui ont comme principal objectif de diminuer les solidarités, notamment liées aux classes sociales. Non seulement on ne pourra construire de réelles solidarités qu’en les construisant de manière vraiment globale, sans discriminer telle ou telle partie de la population, mais inventer des séparatistes est souvent le faux pretexte de ceux qui souhaitent diminuer les solidarités.

    L’argument est simple mais terriblement efficace : « je voudrais bien être solidaire mais je ne peux pas à cause de telle fraction de la population qui ne joue pas le jeu ». Le FN/RN est un des initiateurs de cette tactique, et encore plus depuis son virage d’affichage social, en pointant au départ les immigrés mais de plus en plus des français identifiés comme différents, le plus souvent à partir d’idées racistes de la part des discriminateurs. Malheureusement, cette tactique et ces idées ont depuis longtemps diffusé au sein d’une partie de la gauche électorale, en particulier sa fraction qui ne souhaite en réalité pas trop de solidarités au sein de la société dans son ensemble. On retrouve ainsi l’argument classique, le joker ultime du néolibéralisme qu’est « l’aléa moral ». Ce concept est simplement l’affirmation que si on protège un humain contre un risque, il fera moins d’effort pour l’éviter, et le coût social du risque en question s’en trouvera augmenté.

    Ce concept a l’avantage du « bon sens », mais il est pourtant loin de s’appliquer à toutes les situations. Pourtant, il est utilisé à tort et à travers, notamment pour justifier des baisses de solidarités dans des situations aussi variées que pour ne pas soutenir la Grèce (sinon les gouvernements du monde gaspilleraient leurs ressources), pour baisser les allocation chômage (sinon les chômeurs réduiraient leurs recherches d’emploi), pour instaurer des jours de carence dans la prise en charge des congés maladie (sinon les salariés se feraient massivement porter pâle), et plus récemment pour justifier la non augmentation des minima sociaux (sinon cela « rends plus difficile le retour à l’activité » comme l’a prétendu le président de la République dans son discours télévisé mercredi 14 octobre 2020)… Or, il a été montré empiriquement que dans ces situations, la baisse des solidarités était un piètre moteur de l’effort individuel (comme résumé au sujet des minima sociaux par Gaétane Poissonnier dans dans un article pour alternatives économiques) quand elle n’était pas directement un frein (comme dans le montre Catherine Pollak dans une étude du ministère des affaires sociales pour le cas des congés maladie).

    Un autre exemple d’actualité est le cas du recours aux urgences et des patients accusés « d’abuser » du système de santé. Les services d’urgences agonisaient bien avant l’arrivée de la COVID-19, qui n’a fait que mettre en exergue les défaillances du système que beaucoup dénonçaient déjà bien avant la pandémie. On répondait alors aux personnels ce qu’on leur répond encore aujourd’hui : c’est soit un problème d’organisation, soit la faute de ceux qui abusent et viennent aux urgences pour « rien » et parce que c’est gratuit, même si les urgences n’ont jamais été gratuites et que ce motif n’était pas mis au jour par les études analysant les recours aux urgences. Mais la réalité est qu’on a choisi collectivement, par les politiques qui ont été votées, de mettre moins de moyens que nécessaires dans le système de santé dans son entier.

    Des études se sont penchées sur les passages aux urgences et contredisent le récit fantasmatique de potentiels « abuseurs », comme l’explique Anne-Laure Féral-Pierssens dans un texte publié sur AOC. Les problèmes de santé des patients qui consultent aux urgences sont réels. Une part de ces patients (et non une grande majorité comme voudraient le faire croire certains) pourraient être pris en charge dans des structures de soins intermédiaires entre la médecine générale de ville et le plateau technique hospitalier. Mais ces patients viennent aux urgences le plus souvent car ces structures alternatives n’existent pas ou peu. Il s’agit donc bien d’un problème d’investissement public – même si les besoins pourraient être fournis en dehors des services d’urgences – et non d’un problème « d’abuseurs ».

    Finalement, il s’avère que les difficultés majeures des services d’urgences sont principalement le fait d’un manque de places réellement disponibles et accessibles en aval des urgences pour accueillir les patients qui doivent être hospitalisés, ce qui génère un engorgement des services, diminue la qualité de la prise en charge médicale des patients tout en accentuant la charge et en détériorant les conditions de travail des équipes. Pointer du doigts les « abuseurs » est ainsi le moyen de légitimer auprès du grand public la continuation d’une politique de sous-investissement public dans la santé. De même, pointer les séparatistes ou les islamo-gauchistes est non seulement une manière de cacher la faiblesse de la lutte contre les discriminations, mais c’est aussi une manière de justifier la baisse des solidarités, en pointant des groupes avec qui la solidarité ne serait pas souhaitée.

    Conclusion

    D’une certaine manière, même si je réduis les fractures qui fissurent la gauche électorale en partant des trois présentées par Gilles Raveaud à une seule fracture, qui en serait la cause commune, ma présentation des possibilités d’union de la gauche n’est pas forcément plus optimiste. Quoi qu’il en soit, si on souhaite réellement reconstruire un projet solidaire, avec une grande part de production non marchande et socialisée, par tous et pour tous, il convient de ne pas se cacher les dissensions de fond et discuter vraiment de la manière de gérer les activités productives. Sur ces bases, on pourra alors définir et approfondir sans faux-semblants les objectifs et les stratégies au sujet des questions essentielles que sont les relations avec les autres citoyens européens, la conservation de la planète et la lutte contre toutes les formes de discriminations.

    [retour ; haut de page]

    CICE: 100 000 emplois, c’est peu, si seulement ils existent

    Blog de Mediapart, 25 septembre 2020

    Le dernier rapport en date de France Stratégie sur les effets du CICE avance la création nette de 100 000 à 160 000 emplois. L’objectif de ce post est de présenter comment ces chiffres ont été obtenus et pourquoi je reste très dubitatif quant à l’existence ne serait-ce que de 100 000 emplois créés par le CICE.

    Le dernier rapport en date de France Stratégie sur les effets du CICE a été accueilli avec une pointe de sarcasme : 18 milliards d’euros par an pour seulement 100 000 emplois créés, c’est loin de l’efficacité promise (il s’agit de l’estimation par l’une des deux études, l’autre estime la création nette de 160 000 emplois). Il n’y a pourtant rien de nouveau ici, la faiblesse des effets emploi du CICE est connue depuis longtemps. Toutefois, et même si cela ne change pas beaucoup le fond de l’affaire, il me semble que même ces 100 000 emplois restent très hypothétiques. L’objectif de ce post est je crois essentiel au débat public et à la crédibilité du travail d’évaluation empirique. J’y présente, de la manière la plus abordable possible pour des lecteurs intéressés mais non familiers des questions techniques, ce que font ces équipes pour évaluer le CICE et pourquoi je reste très dubitatif quant à l’existence ne serait-ce que de 100 000 emplois créés par le CICE.

    Disons le tout de suite, si je doute de l’existence de ces emplois, c’est que je pense qu’il y a d’importants biais dans les estimations, mais il ne s’agit en aucun cas de scandale scientifique comme on a pu voir récemment dans d’autres disciplines en marge de la crise de la Covid19. Les études ne sont ni bâclées ni malhonnêtes. Toutefois, les études empiriques ne doivent jamais être prises individuellement comme vérité générale et absolue, elles doivent être critiquées et discutées, ce que je fais ici.

    Avant de commencer, une autre précision s’impose. J’ai dirigé une équipe qui a également participé pendant trois ans, de 2016 à 2019, à l’évaluation du CICE dans le cadre du comité d’évaluation chapeauté par France Stratégie (nos rapports sont accessibles ici et ici, un article académique tiré de ces travaux est accessible ici et une synthèse grand public de nos résultats initiaux peut être lue ici). Nos résultats ne parvenaient pas à mettre au jour le moindre emploi créé, alors que nous estimons un impact très net sur les salaires des plus qualifiés (et des plus qualifiés uniquement). Comme l’a fait remarquer un article de Médiapart, nos travaux n’alimentent plus les rapports du comité d’évaluation, tout comme il n’est plus fait mention dans le dernier rapport des travaux de l’IPP. Cet institut d’évaluation des politiques publiques avait un temps été sollicité pour évaluer le pacte de responsabilité (un allègement de cotisations prolongeant le CICE à partir de 2015), censé être plus efficace car mieux ciblé sur les bas salaires. On ne connait donc pas les résultats de cette étude mais un autre rapport de l’IPP réalisé à la demande du CAE ne trouve pas d’effet de cette mesure sur l’emploi.

    Une approche microéconomique en expérience naturelle et une approche macro-structurelle

    Les deux études qui alimentent le dernier rapport de France Stratégie sur les effets du CICE sont assez différentes quant à leur méthodologie (tout en ayant un important biais en commun lié aux comparaisons entre secteurs économiques). L’une, réalisée par le laboratoire TEPP, utilise une approche micro-économétrique sur données d’entreprises, cherchant à déterminer le contrefactuel – ce qui se serait passé en l’absence du CICE – sur des bases empiriques en comparant des entreprises plus ou moins touchées par le CICE. 100 000 emplois sont alors identifiés comme créés par le CICE. L’autre, produite par l’OFCE, est une approche macro-structurelle déterminant le contrefactuel à partir d’un modèle théorique, et estimant théoriquement les emplois supplémentaires créés par effet d’entraînement et les emplois détruits par les mesures de financement du CICE. Elle mène à une estimation nette de 160 000 emplois créés par le CICE.

    Une autre différence importante entre ces 2 approches est à noter. Le résultat de 160 000 emplois obtenu par la seconde ne peut pas être directement comparé aux 100 000 emplois de la première, car un modèle macroéconomique évalue théoriquement les pertes d’emploi dues au financement de la mesure. Il s’agirait donc de l’effet net après réallocation des ressources (privées via de nouveaux prélèvements obligatoires ou publiques via des baisses d’autres dépenses) vers la subvention de salaires. C’est pour cela que les défenseurs de cette étude rejettent la possibilité de raisonner en coût par emploi créé.

    Sur ce point toutefois, deux arguments en faveur du raisonnement en coût par emploi créé peuvent être apportés. Premièrement, il ne faut pas oublier que la mesure étudiée n’est pas simplement une petite optimisation indolore du système de taxes et transferts. La baisse des dépenses publiques, outre qu’elle amène directement à réduire des emplois publics, réduit également la quantité ou la qualité des services publics (on peut rappeler ici les secteurs exsangues comme l’éducation ou la santé) et des investissements publics, avec des conséquences sur l’activité économique et la productivité qui se nourrie bien évidemment des infrastructures publiques.

    Deuxièmement, la manipulation permettant de générer les 18 milliards d’euros par an pour le CICE aurait pu être allouée à d’autres politiques qui auraient créé au moins autant voire plus d’emplois, tout en répondant à des besoins sociaux pressants. Cette allocation alternative pourrait être vue comme un investissement social pour la productivité future de notre économie. Nous avions détaillé ce raisonnement en coût d’opportunité des finances publiques dans un article académique et résumé l’idée dans un policy brief du LIEPP. Ainsi, il me semble que même dans le cadre d’une estimation de l’emploi créé avec bouclage macroéconomique, l’indicateur de coût public par emploi crée est pertinent. Pour approfondir cette question, il est possible de lire le débat du LIEPP dans lequel je défendais cette position et Guillaume Allègre défendait la position opposée.

    Approche Micro-économétrique en expérience naturelle

    Cette approche d’évaluation est essentiellement empirique, reposant sur un minimum d’hypothèses. Elle consiste à séparer la population des entreprises en quatre groupes selon l’intensité du CICE qu’elles reçoivent. Essentiellement, cela revient à les séparer selon la composition de leur masse salariale. Le groupe Q1 des entreprises bénéficiant le moins du CICE regroupe les entreprises avec une majorité de très hauts salaires. Il s’agit le plus souvent de grandes entreprises à forte intensité capitalistique (la valeur du capital rapportée à la masse salariale) et à haute valeur ajoutée. Le groupe Q4 des entreprises bénéficiant le plus du CICE regroupe les entreprises avec quasi exclusivement des bas salaires. Il s’agit principalement de petites entreprises à faible intensité capitalistique et à faible valeur ajoutée. Les groupes Q2 et Q3 sont intermédiaires. Ensuite, les évolutions de l’emploi (et des autres variables d’intérêt comme les salaires, les investissements, les profits...) sont comparées entre chacun des groupes Q2, Q3 et Q4 et le groupe de référence Q1 : les écarts post-2013 sont attribués au CICE. Il apparaît que s’il n’y a pas de différence significative ni entre Q2 et Q1 ni entre Q3 et Q1, le nombre d’emplois a cru significativement plus vite dans Q4 que dans Q1, ce qui correspond aux 100 000 emplois annoncés.

    La principale question pour savoir si ce résultat est fiable est de savoir si la comparaison de Q4 avec Q1 est valide, c’est à dire si les entreprises de Q4 ce seraient comportées comme celles de Q1 en l’absence de CICE. Or, comme il a été dit plus haut, les entreprises de Q4 sont essentiellement des petites entreprises peu productives du secteur des services. Les entreprises de Q1 sont des grandes entreprises à forte intensité capitalistique générant de haut niveau de valeur ajoutée par travailleur. Il n’est pas du tout évident qu’en l’absence de CICE, ces deux types d’entreprises auraient eu la même évolution de leur emploi, d’autant plus dans une période de sortie de crise comme l’était 2013-2016 au niveau mondial.

    Certes, les auteurs disent qu’ils contrôlent pour ces différences intrinsèques. Ce traitement statistique consiste à mesurer la différence d’évolution de l’emploi selon l’intensité capitalistique, la taille, la valeur ajoutée par travailleur. Ces mesures sont utilisées pour corriger les différences « intrinsèques » lors de la comparaison de Q1 et Q4. Pour autant, par le principe même d’une régression contrôlée, ces correctifs sont estimés en moyenne à l’intérieur des groupes (et donc pour des petites variations d’intensité capitalistique entre petites entreprise à faible intensité capitalistiques – Q4 – ou pour des petites variations d’intensité capitalistique entre grandes entreprises à forte intensité capitalistique – Q1) puis sont utilisés pour corriger la différence intrinsèque entre les petites entreprises à faible intensité capitalistique et les grandes entreprises à forte intensité capitalistique. Il est très peu probable que ce correctif fonctionne, et plusieurs éléments dans les résultats renforcent ce doute.

    Tout d’abord, on observe malgré ce correctif une différence significative entre les évolutions de l’emploi de Q2 et Q3, largement en faveur de Q2. Or, les entreprises de Q2 bénéficient de moins de CICE que celles de Q3. Les auteurs expliquent que ce résultat contre-intuitif ne doit pas être interprété comme un effet négatif du CICE mais provient d’un artefact statistique dû au fait que les entreprises de Q2 et de Q3 appartiennent à des secteurs industriels différents. Ainsi, ce résultat négatif ne serait pas à imputer au CICE mais à des différences intrinsèques entre secteur que les contrôles ne parviennent pas à corriger. Pour les mêmes raisons utilisées par les auteurs pour disqualifier ce résultat négatif du CICE, le résultat positif qu’ils trouvent par ailleurs doit aussi être remis en cause : les contrôles ne parviennent pas à corriger les différences intrinsèques entre les entreprises de Q2 et Q3, on voit mal comment ils parviendraient à corriger celles entre les entreprises de Q1 et Q4, qui sont encore plus différentes entre elles.

    Par ailleurs, devant la divergence de résultats entre les différents rapports lorsque nos travaux alimentaient encore le comité d’évaluation du CICE, ce dernier avait fait appel à l’INSEE pour répliquer nos deux études. Contrairement à notre méthodologie qui trouvait des résultats stables quel que soit le jeu de contrôles, cet exercice de réplication notait que la méthodologie décrite ci-dessus donnait des résultats qui pouvaient changer du tout au tout si on modifiait les contrôles. Leur travail de rapprochement des méthodologies conduisait à la conclusion suivante :

    « Absence d’effet négativement significatif. [...] Absence d’effets significatifs pour les régressions pondérées. [...] Quand les observations ne sont pas pondérées, les estimations montrent un effet positif et significatif du traitement, mais l’échec des tests placebos met en évidence qu’il s’agirait plutôt d’une tendance antérieure, inobservée, et non prise en compte par les variables de contrôle. »

    Ceci accrédite la thèse que ces variables de contrôle intra-groupes ne permettent pas de corriger les trop fortes différences intrinsèques inter-groupes qui biaisent les résultats de cette évaluation. Le test placebo dont il est question consiste à faire le même travail que précédemment, mais en mesurant le potentiel effet d’un CICE fictif sur l’évolution de l’emploi entre 2011 et 2012, soit avant la mise en place (et même l’évocation) du CICE réel. Le fait de trouver une différence significative entre Q1 et Q4 dès avant la mise en place du CICE montre bien que ces différences ne peuvent pas être imputées à ce crédit d’impôt.

    Les auteurs se réjouissent que les résultats des tests placebo (qu’ils appellent tests de falsification) seraient devenus non significatifs dans la dernière version de leur étude. Ce me semble un peu optimiste, pour au moins deux raisons. Premièrement, même s’ils ne sont que faiblement significatifs, ils restent significatifs dans de nombreux cas. Deuxièmement, quand ils ne sont pas significatifs, ce n’est pas parce que le coefficient est faible mais parce que l’erreur est élevée. L’intervalle de confiance à 95 % (l’intervalle de valeurs dans lequel le résultat a 95 % de chances de se trouver, qui est la manière standard de mesurer la certitude autour d’un résultat) comprend des valeurs du test de falsification aussi élevées voire plus élevées que le coefficient de l’effet CICE estimé. Ainsi, il reste très probable que les 100 000 emplois annoncés ne soient en réalité qu’un artefact statistique lié à des différences indépendantes du CICE entre de grandes entreprises à hauts salaires et des petites entreprises à bas salaires.

    Pour être tout à fait complet, il convient de mentionner que le rapport contient une variante dans laquelle les effets du CICE ne sont pas mesurés en comparant les groupes d’entreprises mais en comparant les entreprises à l’intérieur des groupes, selon qu’elles font partie des plus ou moins bénéficiaires du CICE dans leur groupe. Avec cette approche, les résultats des tests de falsifications deviennent très fortement significatifs et plus élevés que l’effet mesuré du CICE, signe qu’il s’agit toujours d’un artefact statistique.

    Approche Macro-structurelle avec bouclage

    L’approche macro-structurelle diffère sur de nombreux points de l’approche micro-économétrique, mais comporte un biais commun. Le principe général consiste à estimer les paramètres d’un modèle structurel sur des données datant d’avant le CICE (en l’occurrence 1981-2012). Puis, ce modèle sert à simuler ce qu’aurait été l’emploi dans chaque branche industrielle française sans le CICE. Dans un troisième temps, une analyse statistique mesure la corrélation entre l’intensité du bénéfice du CICE dans la branche et la différence entre l’emploi effectivement mesuré et l’emploi simulé dans cette branche. Cette corrélation est interprétée comme l’impact direct du CICE. Enfin, cet impact direct est utilisé pour modifier les équations d’emploi et de salaire d’un modèle de simulation macroéconomique dans lequel sont également incorporées des hypothèses de financement de la mesure. Ce modèle permet de faire une projection théorique sur les effets d’entraînement (le fait que les emplois créés, générant de la richesse, augmentent également la consommation, donc la demande et ont ainsi un impact positif sur l’économie) et les effets négatifs liés aux hausses d’impôts ou aux baisses de dépenses publiques pour financer le CICE.

    La première étape pour être convaincu par les résultats de l’évaluation c’est d’être convaincu par la capacité de ce modèle à prévoir l’emploi qui aurait eu lieu. Or, si les modèles théoriques peuvent être de bons outils pour analyser a priori les enjeux d’une réforme ou a posteriori comprendre les mécanismes ayant mené à une situation économique, leur pouvoir prédictif est souvent plus limité (je discutais de l’intérêt et des limites des modèles, ainsi que des excès de confiance dans leur interprétation, dans un post précédent). Les modèles de conjoncture se limitent souvent à des prédictions de relativement court terme. Ici, il a fallu, sur la base d’un calibrage sur des données antérieures à 2012, prédire l’emploi et les salaires de chaque secteur de 2013 à 2017, période très particulière puisqu’elle abritait une reprise économique mondiale après une grande récession.

    Les résultats de l’estimation économétrique ne lèvent d’ailleurs pas ce doute puisqu’ils révèlent une erreur de simulation hors CICE très forte et significative. En effet, la constante dans l’équation d’estimation de l’impact du CICE sectoriel sur l’emploi sectoriel doit être interprétée comme la différence entre l’emploi simulé et l’emploi effectif pour un secteur qui n’aurait pas touché de CICE du tout. Elle illustre donc la capacité du modèle à prédire l’emploi contrefactuel. Si le modèle avait une bonne capacité prédictive, elle devrait être nulle ou proche de zéro, ce qui est loin d’être le cas. Les résultats de l’estimation elle-même apportent donc un démenti à l’assertion que le modèle théorique parvient à simuler véritablement ce qu’aurait été l’emploi en l’absence du CICE, ce qui est pourtant une hypothèse essentielle de validité de l’approche évaluatrice.

    Ensuite, même si on croyait à cette capacité prédictive, il faudrait être convaincu que les différences sectorielles dans la reprise de l’emploi après 2013 sont imputables au CICE. On retrouve ici un argument déjà évoqué dans la présentation de l’évaluation micro-économétrique, à savoir que les entreprises des différents secteurs sont intrinsèquement trop différents pour pouvoir servir de comparaison contrefactuelle les unes aux autres. Il est loin d’être impossible que la temporalité de la reprise post-crise dans les secteurs plus ou moins intensifs en main d’œuvre à bas salaires (et donc plus ou moins bénéficiaires du CICE) aurait été différente même sans ce crédit d’impôt.

    De plus, cette évaluation fait face à un problème assez net de causalité inverse. Une branche qui aurait créé plus d’emplois en dessous de 2,5 SMIC pour d’autres raisons que le CICE – par exemple une branche dont la reprise post crise serait meilleure grâce à une meilleure exposition conjoncturelle – bénéficierait de facto de plus de CICE, puisque ce crédit d’impôt est proportionnel à la masse salariale des employés payés moins de 2,5 SMIC. Ainsi, en mesurant une corrélation positive entre la création d’emploi et le bénéfice du CICE, on ne prouve pas que le CICE a permis de créer ces emplois mais on observe au contraire que la création de ces emplois a permis de toucher plus de CICE. Ce problème classique d’évaluation peut-être facilement résolu, par exemple en ne considérant pas le CICE effectivement touché mais plutôt un CICE contrefactuel en l’absence de variations d’emploi (par exemple basé sur la structure salariale pré-CICE, ce que nous faisons dans notre propre évaluation).

    Enfin, deux derniers problèmes concernent la présentation des résultats. Le premier vient du choix des pondérations. En effet, les secteurs utilisés pour l’estimation sont très différents, non seulement quant à leur structure productive et leur exposition à la conjoncture, mais également quant à leur taille. Il convient donc d’effectuer une pondération, pour que les secteurs plus gros comptent plus que les secteurs plus petits. Plusieurs pondérations sont testées et donnent des résultats différents : la pondération par le nombre d’entreprise du secteur (que celles-ci soient des petites entreprises comme dans les services ou des grandes entreprises dans l’industrie) donne des résultats assez différents des autres pondérations (valeur ajoutée, masse salariale, emploi, pas de pondération), avec un impact direct d’environ 200 000 emplois contre environ 150 000 emplois pour toutes les autres. Or, ce sont ces résultats les plus favorables au CICE – et finalement assez isolés – qui ont été choisis pour être injectés dans le modèle théorique permettant de calculer les effets finaux. Puisqu’on s’intéresse aux créations d’emploi, il aurait été plus logique de pondérer sur le nombre de salariés du secteur. Mais cette pondération par l’emploi donne des résultats plus faibles de 25 %.

    Enfin, le modèle théorique prenant en compte les effets d’entraînement (créant des emplois supplémentaires) et de financement des mesures (limitant la hausse d’emploi), font passer le solde de 200 000 à 160 000 emplois créés (si on ne prend en compte que les effets positifs d’entraînement et pas les effets négatifs de financement, on monte jusqu’à 400 000, chiffre qui a par ailleurs été évoqué dans le rapport mais qui n’est pas le résultat de l’estimation). Il est utile ici de rappeler que tout résultat économétrique à une marge d’erreur. L’estimation de l’effet direct n’échappe pas à cette règle et cette marge d’erreur se transmet jusqu’à l’estimation finale de l’effet net du CICE. Or, la manière habituelle de représenter cette marge d’erreur est de considérer l’intervalle de confiance à 95 %, l’intervalle à l’intérieur duquel l’effet réel a 95 % de chance de se trouver. Si cet intervalle de confiance ne contient pas zéro, on dit que le résultat est significatif au seuil de 5 %. Or, ce rapport ne présente pas l’intervalle de confiance à 95 %. Les auteurs ont choisi de présenter plutôt l’intervalle de plus ou moins un écart type, qui est un intervalle près de deux fois plus étroit autour du résultat. Ainsi, quand les auteurs avancent un effet net de 160 000 emplois, il ne faut pas oublier l’écart type de l’estimation de près de 95 000 emplois et donc une borne basse de l’intervalle de confiance à 95 % correspondant à une destruction (et non une création) de 25 000 emplois. Toutes ces estimations auraient été encore plus faibles avec une pondération sur le nombre de salariés des secteurs.

    Cela signifie bien que l’estimation par cette étude du nombre d’emplois créés par le CICE, même si elle n’était pas biaisée, donne un résultat qui n’est pas significativement différent de l’absence pure et simple de création d’emploi.

    Conclusion

    Comme il a été dit depuis plusieurs années, le CICE est difficile à évaluer car il est très général et touche quasiment toutes les entreprises. Plusieurs approches ont tenté d’en mesurer tout de même les impacts. Forcément, elles présentent toutes des faiblesses. La comparaison de ces forces et faiblesses ainsi que de leurs résultats est intéressante pour comprendre le principe de l’évaluation : aucune évaluation ne donne de vérité totale et absolument certaine mais chacune donne des éléments de connaissance, arrachés à grand effort des bases de données.

    Pour ce qui est du CICE lui-même, il me semble raisonnable, en l’état des connaissances, de dire comme l’Insee dans son travail de réplication que les évaluations les moins biaisées – mais qui ne sont plus prises en compte dans les rapports publiés par le comité de suivi du CICE – ne parviennent pas à mettre au jour un effet positif du CICE sur l’emploi. Les autres évaluations, malgré les biais présentés dans ce post, trouvent finalement un effet très limité du CICE sur l’emploi, quand il est seulement significativement différent de zéro.

    [retour ; haut de page]

    Plan de relance : comment compenser la baisse des impôts de production ?

    Alternatives économiques, 14 septembre 2020

    La baisse des impôts de production est au moins autant une réforme structurelle qu’une mesure de relance conjoncturelle. Mais en l’absence de financement, elle prépare un déficit structurel qui pourrait justifier de nouveaux plans d’austérité. La solution la plus logique serait de transférer les impôts de production jugés inefficaces vers un prélèvement juste et efficace sur les entreprises, à savoir l’impôt sur les sociétés – à condition d’en corriger les failles actuelles.

    Le ministère des Finances vient de publier un document détaillant partiellement la baisse annoncée des impôts de production dans le cadre du plan de relance en lien avec la crise de la Covid-19. Il s’agit plus précisément de diminuer les impôts locaux sur les entreprises : la contribution économique territoriale (CET) – constituée de deux taxes, la contribution foncière des entreprises (CFE) et la contribution sur la valeur ajoutée des entreprises (CVAE), ainsi que la taxe foncière sur les propriétés bâties (TFPB). La TFPB et la CFE sont des taxes assises sur les locaux immobiliers (possédés pour la première, utilisés pour la seconde qui est en quelque sorte la taxe d’habitation des entreprises).

    Les taux sont décidés localement et financent principalement les blocs communaux. La CVAE est une taxe sur la valeur ajoutée. Elle se différencie d’une taxe sur le bénéfice principalement du fait que la masse salariale et les dotations aux amortissements ne sont pas déduites. Le taux, national, est tout d’abord croissant avec le chiffre d’affaires avant de se stabiliser à 1,5 %. C’est la partie de cette taxe finançant les régions qui sera réduite.

    La pertinence de telles mesures pour relancer l’économie à court terme pose d’emblée question. Mais on peut même pousser l’interrogation d’un cran : ces mesures ont-elles  uniquement vocation à relancer la conjoncture... Ou s’agit-il plutôt de saisir l’opportunité pour réaliser une réforme pérenne ? La baisse des impôts de production était en tout cas un objectif clair porté par le gouvernement dès avant la crise. Bruno Le Maire l’avait répété à plusieurs occasions bien avant la crise sanitaire, notamment dans un entretien donné aux Echos en avril 2019. Au cours d’un discours prononcé à Bercy en octobre 2019, il avait désigné comme première cible la CVAE, qui est la principale affectée par le plan actuel. On peut également noter que le document publié le 3 septembre précise quelles seraient les méthodes de compensation de cette baisse pour 2021 puis « à partir de 2022 », signe que cette mesure est bien destinée à durer. 

    A court terme, un effet de relance ou un effet de survie ?

    En soi, placer une réforme structurelle dans le cadre d’un plan de relance n’a rien d’absurde, si elle génère effectivement des effets de relance et qu’elle est également bienvenue à long terme. En l’occurrence, l’objectif de cette réduction d’impôts est de soulager les finances des entreprises, de leur transférer des fonds en leur prélevant moins. Moins qu’une mesure de « relance » à proprement parler, il s’agit surtout d’un effet d’aide à la survie, en allégeant les impôts au moment où certaines entreprises perdent leurs liquidités. Il est toutefois surprenant que la baisse annoncée concerne uniquement les paiements de ces impôts de production à partir de 2021 et que ces mêmes impôts restent dus pour 2020, même si leur paiement peut être reporté.

    Concernant les taxes cibles, la TFNB et la CFE sont des candidates à une baisse de soutien. Elles pèsent en effet sur le facteur le plus fixe des entreprises, le foncier, et continuent de peser même quand l’activité de l’entreprise baisse fortement. La CVAE, au contraire, est assise sur la valeur ajoutée : son assiette – et donc le prélèvement correspondant – a chuté fortement pour les entreprises mises en difficulté par la crise sanitaire. On pourrait arguer que la masse salariale n’est pas déduite, mais de ce point de vue les politiques de chômage partiel viennent la réduire pour les entreprises dont l’activité a été ralentie.

    A long terme, optimiser le système de prélèvement ou affamer la bête ?

    A court terme, le principe d’un plan de relance repose généralement sur une augmentation de la dette publique qui sera financée plus tard. Si les mesures prises sont pérennes, il convient à l’inverse d’équilibrer les budgets, ce qui passe soit par la hausse d’autres impôts (la réforme est alors une optimisation du système de prélèvement), soit par une baisse des dépenses publiques.

    Le document publié par le ministère des Finances parle bien de « coût et financement ». Toutefois, il ne s’agit pas réellement de financement de la mesure mais d’une compensation par l’Etat aux collectivités locales de la baisse des recettes qui leur étaient affectées. Cela signifie que l’Etat augmente d’autant ses dépenses – en subvention aux collectivités. Le problème du financement reste donc entier et n’a pas encore été abordé. Étant donné les annonces ainsi que les mesures portées et appliquées par le gouvernement depuis le début de cette présidence, il n’est pas impossible que le financement envisagé soit en réalité une baisse des dépenses publiques, de la même manière que les plans d’austérité avaient succédé aux plans de relance après la crise de 2008.

    Si tel était le cas, ce qui est présenté comme une mesure du plan de relance aurait pour effet à moyen terme d’« affamer la bête », c’est-à-dire de créer du déficit public pour présenter comme inéluctable des baisses de dépenses publiques. Or, ces dépenses sont nécessaires, non seulement pour le bien-être de la population en général, mais aussi pour les entreprises et leur productivité. La crise sanitaire a fait resurgir l’importance du système de santé, dont le personnel était à bout en raison du manque chronique de moyens qu’il subit. Les systèmes éducatif et de formation connaissent également des difficultés bien identifiées, en témoignent les mauvaises prestations dans les enquêtes Pisa de l’OCDE ou le récent rapport sur le développement humain du programme des Nations unies pour le développement (Pnud), qui montre que les déficits d’indice de développement humain (IDH) en France sont dus à des durées de scolarisation (attendues et effectives) inférieures à la moyenne de l’OCDE. Cette question de la qualification explique certaines difficultés des entreprises françaises bien plus que le coût de la main-d’œuvre (A lire ici).

    En fait, la raison principale pour laquelle la France présente des ratios de dépenses publiques sur le PIB supérieurs à ceux des autres pays réside dans son système de retraite, dont une part plus importante qu’ailleurs est publique et obligatoire. Ceci résulte d’un choix de société partiellement débattu l’année dernière et qui se reposera prochainement (voir notamment cette chronique sur les inégalités qu’engendrerait une baisse des pensions publiques). Quoi qu’il en soit, il n’est pas envisageable de baisser les pensions tout en conservant les cotisations retraite pour financer la baisse des impôts de production.

    Si on ne coupe pas dans les budgets, où trouver le financement ?

    Pour éviter une baisse des dépenses publiques essentielles, il faudrait donc a minima remplacer les pertes de recettes que représente la baisse des impôts de production par d’autres prélèvements obligatoires. Evidemment, leur répartition relève de questions d’efficacité économique, mais aussi en grande partie d’équité de la répartition de la contribution aux budgets collectifs. De ce point de vue, on pourrait penser que ce sont surtout des impôts sur les personnes, et préférentiellement des impôts progressifs, qu’il faudrait augmenter. Ceci rejoint plusieurs propositions du dernier livre de Thomas Piketty, avec notamment la proposition d’un impôt sur le revenu renforcé et plus progressif ainsi qu’un impôt progressif sur l’ensemble du patrimoine.

    Pour autant, l’imposition des sociétés (IS) est un complément important à l’imposition des revenus des personnes (IR). C’est ce qu’ont bien expliqué Emmanuel Saez et Gabriel Zucman dans Le triomphe de l’injustice, ainsi qu’une récente note du CAE sur l’imposition des multinationales. L’IS permet en effet de compenser des lacunes que pourrait avoir l’IR, notamment la possibilité de vivre en partie sur les revenus de son entreprise (sans donc déclarer ces revenus comme personnels). L’IS permet aussi d’imposer les actionnaires étrangers qui bénéficient des infrastructures ainsi que de la qualification et de la santé de la main-d’œuvre locale pour leurs activités, ce pour quoi il est légitime qu’ils contribuent à financer ces services publics. Si on doit baisser certains impôts sur les entreprises – jugés trop inefficaces – sans baisser les budgets publics, il serait donc souhaitable de les remplacer par une hausse d’autres impôts sur les entreprises – moins inefficaces – et l’IS est alors le bon candidat.

    Contre les impôts de production, des arguments à tempérer

    Avant même de regarder les contraintes d’une telle substitution des impôts de production vers l’IS, on peut interroger cette optimisation des prélèvements obligatoires sur les entreprises. Les impôts de production sont souvent présentés comme des taxes particulièrement nuisibles à la production. L’un des arguments largement évoqués rejoint ce qui a été dit plus haut sur la TFNB et la CFE, à savoir qu’elles ne dépendent pas du cycle économique ni des résultats des entreprises. l’IS, à l’inverse, baisse mécaniquement quand l’entreprise va mal, et devrait se relever quand elle fait des bénéfices. De même, une entreprise en croissance, réalisant de nouveaux investissements, a en général un faible bénéfice dans les premières années – et donc un faible IS – alors qu’elle aura déjà une forte utilisation du foncier et donc d’importants frais de CFE.

    Pour autant, la note du CAE et l’étude économétrique statistique qui lui est assortie – auxquelles le document officiel de présentation de la mesure se réfère pour la justifier – pointent spécifiquement la contribution sociale de solidarité des sociétés (C3S) comme impôt de production le plus dommageable. Il argue pour cela des effets de cascade qu’elle engendre : comme la C3S est assise sur le chiffre d’affaires – et non uniquement la valeur créée ou le bénéfice – une production à un maillon donné de la chaîne de valeur est retaxée à chacun des maillons ultérieurs. Ainsi, la taxe appliquée sur les premiers maillons est elle-même retaxée aux maillons ultérieurs. Pourtant, la C3S ne fait pas partie des impôts de production que le gouvernement entend baisser.

    A l’opposé, il est prévu de baisser la TFNB et la CFE alors que cette même note du CAE, utilisée pour justifier leur baisse, défend leur maintien. Deux arguments sont avancés pour cela. Premièrement, les évaluations existantes sur l’incidence des prélèvements obligatoires sur l’immobilier d’habitation, accompagnés de raisonnements théoriques pour les adapter au cas de l’immobilier professionnel, tendent à faire penser que ces taxes foncières pèsent sur les propriétaires des locaux plutôt que sur les entreprises qui les occupent. Deuxièmement, la CFE peut inciter les blocs communaux à aménager du foncier pour les entreprises, ce qui nécessite des installations urbaines et le développement de transports, grevant les budgets communaux alors que les retombées en termes d’emploi bénéficient non pas seulement à la commune en question, mais à tout le bassin d’emploi alentour.

    Quant à la CVAE, autre impôt de production baissé dans le cadre du plan de relance, elle a de bons et des mauvais côtés. La valeur ajoutée, sur laquelle elle est assise, reflète la capacité contributive des entreprises mieux que ne le fait le chiffre d’affaires. Toutefois, le taux appliqué à cette base est lui-même dépendant du chiffre d’affaires, ce qui en fait une taxe hybride. De plus, les dotations aux amortissements, qui représentent les coûts de production des entreprises en matière d’investissements en équipements, ne sont pas déduites de l’assiette de la CVAE et sont donc taxées. Pour autant, aucun élément empirique ne vient effectivement tester l’impact de cette taxe.

    Le cœur du problème, les fuites d’IS

    Conclusion : certes, ces impôts de production pourraient être remplacés par d’autres prélèvements sur les entreprises. Mais le principal argument pour ne pas opérer la substitution est en fin de compte le fait que le candidat le mieux placé pour ce faire souffre de nombreux trous dans la raquette. En effet, l’IS est sujet à de nombreuses optimisations, ce qui conduit à un prélèvement effectif assez inégalitaire en fonction de capacités des entreprises à dénicher les exceptions fiscales dont elles peuvent profiter. Ces phénomènes, associés à la concurrence fiscale internationale, ont provoqué une très forte baisse de l’IS dans les pays industrialisés depuis plusieurs décennies, y compris en France récemment.

    La faiblesse principale de l’IS vient de la manière même dont a été conçu initialement le système international de partage des droits à taxer. Les multinationales agissent en effet dans plusieurs pays alors que les fiscalités sont nationales. Il a donc fallu mettre en place un système pour que l’assiette taxable globale – le bénéfice mondial de la multinationale – soit partagée entre tous les pays concernés par son activité, de telle sorte que l’ensemble des bénéfices soient sujets à taxation, mais ne le soient qu’une seule fois. Suivant la croyance que le marché révèle les vraies valeurs des biens et services, on a opté pour un modèle de filiales fictivement indépendantes qui se factureraient les unes les autres leurs biens ou services intermédiaires. Ainsi, par le jeu de ces prix de transfert, le profit total de la multinationale se retrouverait réparti entre ses différentes filiales implantées chacune dans un seul pays et dont le bénéfice serait taxé uniquement dans ce pays. Si les prix de transfert révélaient la « vraie » valeur des biens et services intermédiaires, alors ce bénéfice serait réparti entre pays selon la « vraie » distribution de la production de valeur.

    En pratique, on le sait, les entreprises décident du prix de transfert afin de répartir le bénéfice non en fonction de la production de valeur mais en fonction de la fiscalité dans les différents pays. Ainsi, une filiale dans un pays à haut taux d’IS va vendre très bon marché – et ne pas faire de profit – à une filiale dans un pays à bas taux d’IS – qui fera donc plus de profits faiblement taxés car elle achète bon marché ses consommations intermédiaires. Inversement, la filiale dans un pays à bas taux vendra très cher ses biens intermédiaires à la filiale à haut taux, et le profit sera ainsi déplacé dans le premier pays. Lors de l’instauration de ce modèle, on espérait pouvoir contrôler les prix de transfert par comparaison avec le prix de marché de biens ou services équivalents. Un raisonnement erroné, car les ventes intra-groupes concernent le plus souvent des biens ou services spécifiques dont il n’existe pas d’équivalents exacts vendus sur des marchés concurrentiels.

    La situation s’aggrave avec la propriété intellectuelle, qui offre encore plus de libertés à l’optimisation fiscale. Par exemple, une entreprise produisant des sacs à main peut localiser la propriété intellectuelle sur le design dans une filiale située dans un paradis fiscal. Les filiales produisant et vendant effectivement les sacs à main doivent payer à cette filiale des droits pour l’utilisation du design, droits qui sont fixés à un niveau tel que tout le profit réalisé sur la production et la vente de sacs à main sont transférés à cette filiale installée dans le paradis fiscal. Ces mécanismes sont très présents dans le numérique, expliquant le fait qu’on se focalise sur cette industrie, mais le problème est bien plus général et touche beaucoup d’autres types de multinationales.

    La solution : revenir entièrement sur la méthode

    Les pays industrialisés, sous l’égide de l’OCDE, travaillent depuis maintenant presque une décennie à modifier le système d’imposition des multinationales pour contourner ces stratégies d’évitement fiscal. Certaines législations nationales ont été rapprochées afin de limiter un certain nombre de possibilités d’optimisation fiscale. Et l’imposition de la déclaration pays par pays permet désormais de connaître les profits mondiaux des multinationales. Pour autant, la suite des négociations achoppe sur la possibilité de décider autrement que par les prix de transfert de la répartition entre pays des bénéfices mondiaux des multinationales. Or si on garde le principe de prix de transfert, il y a peu de chance qu’on limite beaucoup l’optimisation fiscale.

    Il faudrait se mettre d’accord sur un mécanisme qui répartisse les bénéfices mondiaux entre les pays via des critères peu manipulables. Lors de discussions dans ce sens au sein de l’union européenne (projet ACCIS), avait émergé le principe d’une clef de répartition basée sur trois indicateurs (main d’œuvre, investissements et ventes). Des mécanismes similaires existent aux Etats-Unis pour répartir les bénéfices taxables entre États aux Etats-Unis (voir notamment le complément à la note du CAE sur l’imposition des multinationales).

    Ce document décrit l’ampleur des pertes de recettes fiscales ainsi que les difficultés qui ont émergé au cours des négociations. En effet, le choix des critères de répartition de l’assiette fiscale peut favoriser grandement tel ou tel pays. Les pays importateurs seraient avantagés par un poids plus grand porté sur les ventes tandis que les pays à bas coût salariaux seraient désavantagés si on choisissait comme indicateur la masse salariale plutôt que le nombre d’employés. Les États-Unis sont quant à eux très attachés à ce qu’on valorise fortement le lieu de la recherche et développement.

    La meilleure solution serait que tous les pays se mettent d’accord, mais il semble que cela soit difficile au vu de la divergence des intérêts. Ce d’autant que certains pays disent officiellement défendre une solution négociée, mais en pratique font traîner les négociations en longueur. On ne peut pas arriver à un système où la France taxerait à leur juste valeur les profits des multinationales (françaises et étrangères) opérant en France si on n’accepte pas que les profits des multinationales françaises soient taxés à leur juste valeur à l’étranger. Pour autant, si une solution globale n’était pas trouvée, il serait quand même possible d’avancer via des initiatives nationales, sans pour autant risquer la double imposition, comme l’expliquent Kimberly Clausing, Emmanuel Saez et Gabriel Zucman.

    Sans entrer dans les détails techniques on peut calculer, grâce aux déclarations pays par pays, le taux d’imposition effectifs de chaque multinationale dans chaque pays. Si ce taux est inférieur à un niveau jugé minimal (on parle souvent de 15 %, Joe Biden a proposé 21 % dans le cas des Etats-Unis), alors le pays de la société mère peut décider de récupérer pays par pays ce déficit fiscal. Une multinationale française déclarant 100 millions d’euros de bénéfices au Luxembourg et y payant 5 millions d’euros d’impôt (soit 5 %) pourrait se voir réclamer 10 millions d’euros par la France pour combler le déficit par rapport à un taux minimal de 15 %.

    Une autre possibilité serait de ne pas se limiter aux sociétés mères, et de calculer le taux effectif moyen sur le profit mondial, puis de récupérer sa part du déficit fiscal global selon une clef de répartition à choisir. Dans ce cas, une multinationale réalisant 5 % de ses ventes en France, générant un profit mondial de 10 milliards d’euros dans le monde pour un impôt mondial de 500 millions d’euros (5 %), aurait un déficit fiscal mondial d’un milliard d’euros, duquel la France pourrait prétendre à 5 % (soit 50 millions) si on choisit les ventes comme clef de répartition.

    L’impôt sur les sociétés pourrait être un bon candidat au remplacement des impôts de production, qui se résument à une réforme structurelle dont l’absence de financement fait craindre qu’elle soit ultérieurement financée par des plans d’austérité. Mais un tel remplacement nécessiterait d’abord une action volontariste pour modifier une imposition mondiale des multinationales aujourd’hui inefficiente.

    [retour ; haut de page]

    Inégalités de genre dans le système français d'imposition des revenus

    Blog de Mediapart, 4 juillet 2020

    L'impôt sur le revenu, bien que juridiquement neutre au genre, traite de fait différent les hommes et les femmes. Cela provient de son interaction avec d'autres inégalités de genre, dans la société comme au sein des couples eux-mêmes. Ce post commente le cas du quotient familial et de l'imposition des pensions alimentaires reçues par les parents séparés.

    Un article récent sur Moneyvox explique que le système d'imposition des revenus en France comporte des impensés sexistes. Si l'assertion est loin d'être surprenante, l'argument avancé n'est pas évident et j'ai voulu le questionner. Il s'agit du traitement fiscal des pensions alimentaires pour les enfants de parents séparés. Ce post est bien loin d'épuiser le sujet mais j'espère qu'il apportera sa petite pierre à la compréhension des phénomènes en jeu.

    Une analyse statistique de l'Insee montre clairement qu'une séparation conduit non seulement à une baisse du niveau de vie des deux ex-conjoints mais également à un accroissement des inégalités de genre, car la perte de niveau de vie est en moyenne bien plus forte pour la femme que pour l'homme dans les couples hétérosexuels. Ceci est dû à de multiples facteurs, dont les inégalités de revenus (liées entre autres à l'inégal partage des tâches domestiques) ou le fait que les femmes assument bien plus souvent la charge des enfants après séparation. Les pensions alimentaires, lorsqu'elles sont effectivement versées, réduisent l'écart mais sont loin de le combler. Qu'en est-il de leur traitement fiscal ?

    Le traitement fiscal des familles

    Il est assez établi que des mécanismes formellement neutres au genre puissent s'avérer traiter différemment les hommes et les femmes. C'est par exemple le cas de l'imposition jointe des revenus au sein des couples mariés et pacsés : bien que juridiquement indifférent au genre, ce système a un effet négatif sur la participation des femmes et non des hommes au marché du travail. Cela provient de son interaction avec d'autres inégalités de genre, dans la société comme au sein des couples eux-mêmes (je montre ce phénomène dans un article à paraître, dont une ancienne version est disponible en ligne).

    Le mécanisme évoqué dans l'article de Moneyvox ne concerne pas explicitement la familialisation de l'impôt telle qu'elle existe en France, mais il lui est pourtant très lié. Ce système est construit pour que les taux d'imposition ne dépendent pas des revenus mais des niveaux de vie des contribuables, mieux représentatifs de leur capacité contributive. Le quotient familial est censé rendre compte de cette différence entre revenu et niveau de vie, mais la capacité de ce système à effectivement rendre compte des niveaux de vie est très critiquable (j'expose un certain nombre d'arguments critiques dans un article retraçant les étapes et les débats de la constitution l'impôt sur le revenu français).

    La manière de prendre en compte les niveaux de vie pour ce qui concerne les charges de famille consiste à appliquer au revenu non pas le taux d'imposition du barème correspondant à ce revenu, mais un taux correspondant à un revenu plus faible (en l'occurrence : le revenu du foyer divisé par le nombre de parts fiscales attribuées). Comme le barème est progressif, le taux pour un revenu plus faible est plus faible, et conduit à un impôt plus faible même quand il est appliqué au revenu total.

    Pensions alimentaires et quotient familial

    Dans ce cadre, que faire des pensions alimentaires ? En ce qui concerne la personne qui la verse (le plus souvent le père), qui a par ce biais une charge de famille, il est décidé de ne pas lui octroyer de réduction d'impôt via le quotient familial. En effet, il n'est pas nécessaire de passer par un système indirect d'évaluation de la charge en question, qui est connue et mesurée : il suffit d'imposer à plein le revenu net de cette charge.

    Pour la personne qui la reçoit (le plus souvent la mère, qui l'utilise pour son enfant) la logique de ce système d'imposition veut que cette pension soit comptabilisée dans le niveau de vie du foyer fiscal qui la consomme (mère plus enfant) mais en octroyant une réduction d'impôt pour charge de famille via le quotient familial.

    Ce système d'imposition est-il juste ?

    Ce n'est pas parce qu'un dispositif est « logique » à l'intérieur d'un système d'imposition qu'il est juste. Mais s'il est si fortement lié à ce système, il est difficile de le juger indépendamment. Ainsi, il me semble qu'il faut considérer ensemble le cas du quotient familial et de l'imposition des pensions alimentaires. On trouve globalement un effet direct favorable au parent qui a la garde de l'enfant, le plus souvent la mère. Toutefois, ce système produit aussi de très fortes inégalités selon les revenus, ce qui peut recréer indirectement des inégalités de genre étant donné les inégalités de revenus entre les sexes.

    En effet, le mécanisme d'imposition jointe, via le quotient conjugal pour les époux et le quotient familial pour les enfants, génère de nombreuses inégalités entre ménages plus ou moins riches, comme le montre un récent document de travail de l'Insee. Le quotient familial permet une réduction d'impôt pour les enfants d'autant plus importante que les parents sont aisés, jusqu'à un plafond de 1557€ par demi-part en 2020, un enfant comptant pour une demi-part (premier et second) ou une part complète (le premier d'un parent isolé et à partir du troisième).

    Quelques simulations illustratives

    Pour illustrer ces phénomènes, il peut être utile de réaliser des simulations. L'idée n'est pas de voir qui de l'homme ou de la femme perd le plus (les études précédemment citées montrent clairement que c'est en général la femme) mais de comparer le principe d'imposition français avec des alternatives plausibles pour voir s'il est plus ou moins avantageux pour les parents qui ont la garde de leur enfant.

    Supposons donc une situation où un parent (la mère) a la garde exclusive et l'autre (le père) verse une pension alimentaire, ce qui est de loin le cas le plus fréquent. Je me base pour les valeurs sur ce site qui indique une pension alimentaire moyenne de 2064€ par an et par enfant dans le cas où la mère a la garde exclusive, ce qui arrive dans 80% des cas (des alternatives avec d'autres niveaux de pensions sont testées). Pour simplifier, je considère le cas d'un enfant unique.

    Dans le système actuel, la mère déclare ses revenus propres plus la pension alimentaire et bénéficie d'un quotient familial de 2. La première alternative consiste en impôt individualisé, sans dispositif compensant l'arrêt du quotient familial, mais en exonérant d'impôt la pension alimentaire reçue. L'individualisation sans compensation augmente sensiblement les recettes globales de l'impôt sur le revenu. Une manière logique de compléter cette alternative utilise ce surplus de recettes pour financer une mesure en faveur des familles alternative au quotient familial, à savoir une allocation forfaitaire (imposable) par enfant. Pour calibrer cette allocation, deux hypothèses sont faîtes en comparaison du système actuel : le gain maximal total grâce au quotient familial (3114€) ou la moitié de ce montant.

    Le quotient familial avec fiscalisation de la pension est favorable aux femmes riches

    Pour ceux que ça intéresse, les graphiques de simulations sont reportés en fin de post. Ils illustrent qu'à moins d'une pension alimentaire très élevée (près de 4 fois la moyenne pour les femmes gagnant plus de 80 000€ nets par an, et plus de 5 fois la moyenne pour les femmes aux revenus inférieurs) l'effet favorable du quotient familial est plus fort que l'effet défavorable de l'imposition de la pension alimentaire. Les deux sont indifférents pour les femmes gagnant moins de 10 000€ nets par an (qui ne paient pas d'impôt) puis s'accroît avec le revenu propre de la mère.

    Si on rajoute l'allocation forfaitaire compensant le quotient familial, la comparaison se met à dépendre très fortement du revenu propre de la mère, même pour des pensions alimentaires dans la moyenne. Que celle-ci soit ou exonérée d'impôt ou pas change peu la situation, les mères aux plus faibles revenus gagnent fortement à un système individuel avec allocation forfaitaire en lieu et place du quotient familial, alors que les mères les plus aisées gagnent au quotient familial.

    Toutefois, le cas des mères en garde partagée est très différent car elles perdent non seulement la moitié d'une demi-part (accordée au père qui partage la garde) mais également une demi-part de parent isolé. Avec un quart de part uniquement, l'effet favorable du quotient familial ne domine plus l'effet de l'imposition de la pension, les deux s'annulent approximativement dans le cas d'une pension alimentaire moyenne. Si le quotient familial est remplacé par une allocation forfaitaire, toutes les mères y gagnent quel que soit leur revenu, même si la pension alimentaire reste imposée.

    Oui, le système fiscal français renforce les inégalités de genre

    Il semble donc que la source principale d'inégalité dans le système d'imposition français soit le principe du quotient familial, très défavorable aux ménages les plus modestes – c'est à dire bien souvent défavorable aux mères séparées. L'imposition de la pension alimentaire reçue n'en est finalement qu'un attribut dont l'impact est limité.

    Pourquoi alors choisit-on de redistribuer aux familles à travers ce mécanisme fiscal inégalitaire plutôt que par des allocations universelles imposables ? Les raisons sont multiples. On trouve d'abord une inertie historique datant de l'époque où l'épouse ne percevait que rarement de salaire et était avant tout le conjoint du déclarant principal, son mari (ces dénominations persistent dans le code fiscal). Ensuite, réduire les impôts plutôt que d'en prélever la totalité et reverser des allocations permet à l'État d'afficher de moindres taux de prélèvement obligatoires et de dépenses publiques.

    Enfin, les mécanismes d'allègements fiscaux ont souvent des effets redistributifs forts mais peu visibles, qu'on aurait du mal à justifier si on devait les afficher clairement. Ce phénomène se retrouve pour de nombreuses réductions d'impôt, comme par exemple celles pour les services à la personne que nous avons étudié avec Nathalie Morel dans le livre Le retour des domestiques, où il est également question de fortes inégalités de genre.

    Donc oui, le système d'imposition français est inégalitaire, avec des conséquences en termes d'inégalités de genre, mais l'imposition des pensions alimentaires n'en est pas forcément la cause principale, et surtout, ce n'est pas un impensé.

    Simulations

    [retour ; haut de page]

    L’idéologie du coût du travail

    AOC, 4 mars 2020

    Il existe une idée fausse, mais tenace : l’idée que le principal déterminant du chômage est le coût du travail ; l’idée que pour régler les problèmes économiques français, il faut impérativement baisser ces coûts, limiter les augmentations du SMIC (potentiellement en dessous de l’inflation) et subventionner les bas salaires (quitte à limiter les budgets de protection sociale pour trouver les financements de ces subventions). Cette idée est problématique, d’abord parce qu’elle est fausse. Mais elle est d’autant plus problématique qu’au-delà de leur inefficacité, les politiques qu’elle engendre favorisent les inégalités.

    Une incapacité de la baisse des coûts du travail à résorber le chômage

    La lecture des documents budgétaires attachés au Projet de loi de finance (PLF) et au Projet de loi de financement de la sécurité sociale (PLFSS) pour l’année 2020 nous permet de constater que 60 milliards d’euros (soit 2,5 % du revenu national brut) sont consacrés à faire baisser le coût du travail, principalement à travers des dispositifs socio-fiscaux. Ce montant colossal est la résultante d’une focalisation de la politique française du travail sur son coût depuis le début des années 1990. Les mesures de type allègement de cotisations sociales ou crédit d’impôt pour l’emploi d’un salarié à domicile se sont cumulées depuis, grossissant régulièrement par l’ajout de nouveaux dispositifs ou le relèvement de plafonds.

    Or, ces politiques ont échoué. Cette affirmation ne se base pas simplement sur le niveau final de chômage mais sur des évaluations statistiques basées sur l’analyse fine des évolutions des décisions de production des entreprises. Si les analyses des premiers allègements, de l’ordre de quelques pourcents, font apparaître des créations d’emploi (par exemple l’étude initiale de deux chercheurs de l’Insee et un rapport récent de l’IPP, même si un autre article de chercheurs de l’Insee présentait des résultats contradictoires), les évaluations des effets des relèvements successifs donnent des résultats de plus en plus limités : l’analyse de la réforme Fillion de 2003 montre une faible réactivité de l’emploi aux niveaux des cotisations sociales, et l’évaluation du CICE pointe un échec patent du dispositif en termes d’emploi créés.

    Deux études, employant deux méthodes d’évaluation distinctes, ont été rendues au comité de suivi du CICE, l’une ne trouvant aucune création d’emploi du fait du CICE et l’autre un nombre positif mais faible. Appelé à faire un travail de réplication et de rapprochement des études, l’Insee conclut à « l’absence d’effets significatifs pour les régressions pondérées. [...] Quand les observations ne sont pas pondérées, les estimations montrent un effet positif et significatif du traitement, mais l’échec des tests placebos met en évidence qu’il s’agirait plutôt d’une tendance antérieure, inobservée, et non prise en compte par les variables de contrôle. » Le langage peut paraître technique mais ce qui est dit est clair : il y a deux manières de réaliser l’estimation, la première n’indiquant pas de création d’emploi, la seconde faisant apparaître un artéfact statistique qui n’est pas causé par le CICE mais lui préexistait.

    Première explication : le niveau de ciblage

    L’explication principalement avancée pour expliquer ces échecs tient au fait que les augmentations successives des allègements de cotisations ont conduit à élargir vers le haut la fenêtre des salaires éligibles. Or, seul l’allègement du coût du travail à bas salaire serait réellement efficace. C’est notamment le propos d’une tribune de 36 économistes dans le monde en 2014 et du renforcement des allègements en dessous de 1,6 SMIC en 2015 puis à nouveau en 2019-2020.

    Or, la première analyse des effets de cet ajout de 2015 est négative. De son côté, le CAE a repris l’estimation la plus favorable des effets du CICE, celle que l’Insee a jugé être un artefact statistique, et à intégralement imputé ces emplois supposés créés à la part du CICE portant sur les bas salaires : même avec ces hypothèses favorables, le résultat est que les 13,3 milliards d’euros de cet allègement en dessous de 1,6 SMIC auraient au mieux créé un emploi tous les 160 000 euros par an de dépenses publiques.

    De plus, les études économiques des allègements de cotisations dans d’autres pays – notamment des allègements sur les bas salaires en Scandinavie – montrent des impacts très faibles sur l’emploi. Il faut donc en conclure que ce n’est pas qu’un problème de ciblage, mais que c’est bien la stratégie complète de baisse de coût du travail qui est à revoir. Aujourd’hui, le coût du travail au salaire minimum en France est même inférieur à celui de la Californie, et de l’ordre de celui de l’Ontario ou de l’Alberta. En avril prochain, ce sera au tour du salaire minimum britannique de dépasser le SMIC français.

    Explication alternative : la complémentarité

    Si ce constat empirique semble surprendre une part des économistes et des hommes politiques français, il n’a pourtant rien de paradoxal. Cela ne surprend que ceux qui ont une vision très simpliste de l’emploi comme d’un marché idéal-typique sur lequel une offre de travail – les travailleurs offrant d’autant plus leurs services que le salaire est élevé – rencontrerait une demande – les entreprises achetant d’autant plus de travail qu’il est bon marché. Selon ce modèle simple, si le prix du travail est élevé alors les employeurs se détournent du travail peu qualifié, soit en abandonnant l’idée de produire (i), soit en lui substituant d’autres facteurs de production tels que du capital ou du travail qualifié (ii), soit en délocalisant la production dans des pays à bas salaires (iii).

    Le premier comme le dernier point ne sont pas très sérieux : (i.) Pense-t-on vraiment que si on diminue le coût du travail, les plus fortunés renonceront à une part de leurs consommations courantes et utiliseront ces économies pour augmenter leurs investissements productifs ? (iii.) Pense-t-on vraiment qu’on va inverser la délocalisation vers les pays d’Europe de l’est ou du sud-est asiatique en allégeant les cotisations où en augmentant le SMIC moins vite que l’inflation ?

    La modification de la structure de production, avec une substitution par du travail plus qualifié ou du capital, est un argument plus sérieux (ii.). Toutefois, il suppose une certaine substituabilité à court terme entre ces facteurs de production, en fonction de relativement faibles variations de leurs prix. Or, les modifications des structures de production sont plutôt des mécanismes qui opèrent à long terme, orientés principalement par des considérations technologiques. On donne souvent des exemples de numérisation et de mécanisation qui auraient remplacé les travailleurs, mais pense-t-on pour autant qu’on rejetterait la technologie pour revenir au travail humain si son coût baissait ? Il est peu probable que les supermarchés renonceraient aux caisses libre-service si on allégeait encore davantage les cotisations sur les salaires des caissières.

    À court ou moyen terme, c’est surtout la complémentarité qui prédomine. Or, cette complémentarité ne peut se faire que dans un seul sens : ce n’est pas la baisse du prix des services de ménage qui permettra de créer des bureaux d’étude (ce qui correspondrait au point i), mais c’est en formant plus de gens capables de les ouvrir, et qui auront besoin qu’ils soient propres pour recevoir leurs clients, qu’on fera augmenter la demande de services de ménage. C’est donc bien dans l’investissement public dans l’éducation et la formation et non dans la baisse des coûts et des conditions du travail que se trouve la création d’emplois.

    Le plus ironique est que c’est ce qui ressort des modèles standards de marché du travail souvent utilisés pour réclamer toujours plus de flexibilité et de baisse du coût et des conditions de travail. C’est ce que je viens de montrer dans un article à paraître. Reprenant ces modèles dans un cadre comprenant plusieurs facteurs de production (et non pas, comme souvent, un seul type de travail homogène), il apparaît que l’efficacité comparée des politiques d’investissement public dans la formation ou dans la baisse du coût du travail dépend fortement de la plus ou moins grande substituabilité ou complémentarité des différents types de travail : plus le travail peu qualifié est complémentaire du travail plus qualifié, moins les politiques de baisse du coût du travail fonctionnent et plus les politiques d’éducation et de formation sont efficaces. Or, l’évolution technologique conduit à renforcer la complémentarité entre des emplois de contact – livraison, transport, aide à domicile – et des emplois plus qualifiés, notamment de développement informatique.

    Pourquoi continue-t-on dans cette voie sans issue ?

    Une première explication pour tenter de répondre à cette question, tient aux courtes vues et à la persistance de la confiance dans les institutions. Les politiciens ont besoin de résultats immédiats pour faire carrière, et miser sur l’éducation prend trop de temps : au mieux plusieurs années avec la formation continue mais plus probablement des décennies avec la formation initiale. À l’opposé, même si les résultats sont faibles (quand ils ne sont pas inexistants), on peut espérer les obtenir rapidement dans le cas de baisses du coût du travail et c’est peut-être ce qui incite chaque nouveau gouvernement à en rajouter une couche sur celles de ses prédécesseurs. Cela fait maintenant plus de 30 ans que nous suivons éperdument cette voie, soit plus d’une génération qu’on stagne ; si on avait opté pour une autre voie, on en verrait déjà les effets.

    Une autre explication à cette obstination tient à la force de l’idéologie. C’est souvent facile de mettre les erreurs commises sur le dos de l’idéologie mais force est de constater que celle-ci se retrouve à tous les niveaux. Elle y est solidement implantée à la fois dans les facultés d’économie, au sein des institutions internationales (il n’y a qu’à voir les recommandations du FMI, de la commission européenne, etc.) ainsi que chez les hauts fonctionnaires. On a effectivement observé des manifestations claires de cette idéologie dans divers rapports publics. On en trouve un bon condensé dans l’introduction d’un rapport du CAE de 2004 sur la productivité et l’emploi dans le tertiaire :

    Le sous-développement du secteur tertiaire illustre tout d’abord le poids négatif d’un coût élevé du travail peu qualifié sur l’emploi. Dans ce contexte, le salaire minimum est un mauvais instrument de redistribution du revenu s’il ne s’accompagne pas d’une maîtrise du coût du travail. Le coût du travail peu qualifié doit donc être réduit. (...) Dans le secteur des services, où la volatilité et la rotation de la main d’œuvre sont des facteurs clefs de la productivité et de l’emploi, les effets pervers de la réglementation française de la protection de l’emploi sont exacerbés. La réglementation de la protection de l’emploi doit donc être adaptée. (...) Les barrières au développement du travail à temps partiel, dues en grandes parties aux particularités du système socio-fiscal, qui constituent des freins au développement de certains secteurs du tertiaire, doivent être changées.

    Baisse du coût direct du travail, et des coûts indirects liés à sa protection, voilà le programme ! Une des autrices de ce rapport a surenchéri quatre ans plus tard dans un rapport de l’inspection générale des finances (IGF) :

    Les pays développés qui ont retrouvé le plein emploi l’ont fait dans 75 % des cas avec des emplois de moins de 30 heures et pour la moitié d’entre eux de moins de 15 heures par semaine.

    Il n’est pas sûr qu’elle propose un partage du temps de travail, c’est bien plus probablement une généralisation des mini emplois précarisés qui est en fait promise.

    Mais ce n’est pas perdu pour tout le monde

    Les idéologies ne tombent pas du ciel, elles ne sont pas le simple résultat d’un débat d’idées dans lequel leurs défenseurs se seraient montrés plus éloquents. Dans le cas de l’idéologie du coût du travail, des groupes de personnes morales ou physiques, particulièrement intéressés aux recommandations issues de cette idéologie et ont mis leurs larges ressources au service de sa promotion. En effet, ces politiques inefficaces pour créer des emplois ne font pas que des perdants. Les entreprises, bien qu’elles n’embauchent pas plus, augmentent in fine leurs marges. Ces aides leurs permettent aussi de mieux rémunérer leurs salariés les plus qualifiés (c’est à dire déjà les mieux payés). De plus, le développement de services bon marché (ménage subventionné, livraison peu chère, transport urbain sous rémunéré) bénéficie aux consommateurs de ces services, qui encore une fois sont majoritairement les ménages à plus hauts revenus.

    Les gagnants de ces politiques sont donc les ménages les plus aisés : les détenteurs de capital, mais également les travailleurs les plus qualifiés. Ce sont finalement les deux pans du système politique multi-élite décrit par Thomas Piketty dans son dernier livre. Il n’est donc pas étonnant de retrouver un tel consensus dans le prolongement de ces politiques inefficaces, qui sont clairement des politiques de soutien aux inégalités.

    [retour ; haut de page]

    Le cloisonnement du débat sur les retraites est source d’inégalités

    Le club Médiapart, 20 février 2020

    Derrière la façade de l’uniformisation du système de retraite se cache la volonté de baisser les pensions pour ne pas avoir à ajuster les financements aux besoins. L’augmentation relative du nombre de personnes âgées peut être gérée de trois manières : i. baisse des pensions ; ii. allongement de la vie active ; iii. augmentation des financements. Le débat s’est focalisé sur les deux premières alors que la troisième a été écartée au motif qu’elle freinerait l’activité économique. Il s’avère pourtant que les deux premières solutions regorgent d’effets inégalitaires alors que les analyses empiriques contestent fortement la prétendue dangerosité de la troisième.

    Baisser les pensions, c’est accroître les inégalités

    Baisser les pensions permet de baisser les prélèvements obligatoires sur les actifs, mais pas d’augmenter le niveau de vie car il faut épargner pour compenser la baisse de la future pension. La littérature économique a analysé les taux de rendement des portefeuilles individuels sur les marchés financiers et montre sans ambiguïté que plus l’individu est riche, plus il arrive à obtenir un rendement élevé, et ce même indépendamment du niveau de prise de risque.

    Ces inégalités seraient moindres si la capitalisation n’était pas purement individuelle mais collective au sein de fonds de pensions professionnels. Toutefois, un tel système de fonds de pension professionnels génèrerait de nouvelles inégalités entre salariés selon le secteur économique et l’entreprise dont ils dépendent, ce qui cadre mal avec la promesse initiale d’uniformisation. De plus, cela compliquerait le suivi des pensions des salariés changeant de secteurs et d’entreprises : le problème des multi-pensionnés était mobilisé afin de justifier la réforme, or on risque de créer des multi-fonds-de-pensionnés, avec moins de soutien administratif pour traiter leurs dossiers et s’y retrouver.

    Retarder l’âge de la retraite, c’est accroître les inégalités

    Le nouveau système est supposé permettre aux potentiels retraités de « choisir » individuellement entre une durée d’emploi prolongée et une pension diminuée. Évidemment, ce choix est plus libre pour les personnes qui peuvent effectivement rallonger leur carrière (parce qu’ils ont des métiers moins contraignants physiquement et une employabilité plus facile même à des âges avancés) que pour celles qui ne le peuvent pas et n’auront d’autre choix que de subir des baisses de pension.

    Par ailleurs, un allongement de carrière identique pour tous est inégalitaire car l’espérance de vie (et encore plus l’espérance de vie en bonne santé) est hétérogène. Commencer la retraite à 63 au lieu de 62 ans, c’est retirer un an sur 23 de retraite à un diplômé du supérieur faisant parti des 25 % de français les plus riches. Pour une personne sans diplôme parmi les 25 % les moins bien lotis, c’est retirer une année sur 12 à la retraite (et peut-être tout son temps sans incapacité).

    De plus, le retard de passage à la retraite a des effets néfastes sur la santé des moins diplômés, comme viennent de le montrer des chercheuses en analysant l’effet différé de la réforme de 1993.

    Hausser les cotisations ne réduit pas l’emploi ni la compétitivité

    La troisième solution, l’augmentation des cotisations sociales, est écartée à cause de son effet supposé de destruction d’emplois. Pourtant, une expérience riche d’enseignements nous a été donnée par l’échec du CICE : appelé à arbitrer un désaccord minime entre deux évaluations (l’une n’observant pas de création d’emploi et l’autre qu’un très faible nombre), l’Insee a conclu que le très faible niveau d’emploi apparaissant dans certaines évaluations n’était qu’un artefact statistique.

    Certains arguent que le CICE a échoué parce qu’il concernait les hauts salaires, or il concernait aussi les bas salaires. Même en suivant le très prudent CAE qui a considéré l’artefact statistique comme une réelle création d’emploi, on arrive au mieux à avancer que la part du CICE subventionnant les bas salaires (en dessous de 1,6 SMIC) aurait réussi à créer un emploi tous les 160 000 € dépensés annuellement. Par ailleurs, analysant une réduction de cotisations ciblée sur les bas salaires (le pacte de responsabilité), une étude de l’IPP n’arrive pas non plus à mettre en évidence de création d’emploi. Ainsi, déclarer qu’il serait impossible de continuer à financer les pensions car cela nuirait à l’emploi n’est pas crédible au regard des travaux empiriques sur la question.

    Qui sont les gagnants de ce cloisonnement néfaste du débat ?

    Rappelons enfin les ordres de grandeurs : dans le pire scénario de croissance, le COR indique que l’équilibre financier en 2025 nécessite une augmentation des cotisations sur les revenus d’activité de 1,5 point. Les cadeaux que l’on vient d’évoquer s’élèvent à 6 points de cotisations pour le CICE et 1,8 point pour le pacte de responsabilité.

    Le refus de discuter de l’augmentation des cotisations bénéficie aux salariés les plus qualifiés qui ne verront pas leurs salaires grevés par des cotisations supplémentaires, et aux employeurs qui pourront payer moins cher le travail peu qualifié (sans embaucher davantage). Le prix à payer sera soit un allongement de la période de travail, ce que les plus favorisés peuvent faire plus facilement, soit une compensation de la baisse de pension par un recours à la capitalisation, qui est là aussi plus accessible et plus rentable pour les plus fortunés.

    [retour ; haut de page]

    La quadrature de la fiscalité locale : équité, efficacité, autonomie, coopération

    Horizons Publics, hors série été 2019, Changer le logiciel de l'action publique territoriale, 19 juillet 2019

    Lors de la création de l’impôt sur le revenu français en 1914, les finances publiques locales sont restées dans l’ancien temps, se voyant réservé les anciennes contributions directes, les « quatre vieilles ». Ces taxes issues de la révolution cherchaient à imposer des approximations du revenu et de la richesse sans entrer dans l’intimité du contribuable, se fiant uniquement à des signes extérieurs de richesse. De ce fait, les assiettes étaient très imparfaites et on retrouve ces défauts dans la fiscalité locale actuelle. Si la taxe sur les portes et fenêtres a disparu, la contribution foncière a perduré sous la forme de la taxe foncière, la contribution mobilière sous la forme de la taxe d’habitation et la patente sous la forme de la taxe professionnelle.

    Les taxes ménages sont assises sur de mauvaises approximations des richesses et des revenus, et sont ainsi peu équitables. L’argument de la régressivité a été présenté pour justifier la suppression partielle de la taxe d’habitation, même si contrairement à la justification de campagne du candidat élu en 2017, ce n’est parce qu’on « paye souvent beaucoup plus quand on vit dans une commune pauvre que dans une commune riche » (En marche, 2017), mais parce dans chaque collectivité l’assiette de la taxe, c’est à dire la valeur locative des logements, croît moins vite que le revenu des contribuables (Carbonnier, 2019). Malgré la croissance avec le revenu du nombre de propriétaires occupants, la taxe foncière présente des caractéristiques similaires.

    La fiscalité sur les entreprises a montré la faiblesse de ces assiettes approximatives du point de vue de l’efficacité économique. Réformée en 1976, la taxe professionnelle était assise sur trois assiettes calculées localement : i. la valeur locative de l’immobilier occupé, ii. la valeur d’achat des équipements et iii. la masse salariale. La troisième partie a été supprimée en 1999. Du fait que la seconde partie incitait les entreprises à sous-investir dans les équipements et donc limitait leur productivité (Bergeaud et al., 2019), elle a aussi été supprimée en 2010 et remplacée par la contribution sur la valeur ajoutée des entreprises (CVAE) redistribuée aux collectivités locales selon une clef de répartition composée au tiers de la valeur locative des locaux et aux deux tiers des effectifs employés.

    À ces défauts intrinsèques des assiettes s’ajoutent les questions de fixation des taux. Des décisions locales ouvrent le risque de concurrence fiscale pouvant engendrer un défaut de ressources (), mais l’uniformisation nationale des taux limite l’autonomie fiscale des collectivités et fausse la décentralisation.

    Une dernière question importante concerne périmètre des interventions et des dépenses publiques. Du point de vue de la vie locale des citoyens, l’intercommunalité est probablement trop petite du fait que la majeure partie des salariés travaille dans une autre commune que celle où elle réside. De ce point de vue, le périmètre effectivement en jeu est celui de la zone d’emploi, caractérisé par l’Insee en fonction des mobilités pendulaires (Insee). Toutefois, il n’est pas question de rajouter un nouvel échelon au mille-feuilles des collectivités territoriales. L’action publique doit être pensée à travers la coopération des intercommunalités d’une zone d’emploi.

    Cet article vise à ébaucher les pistes d’une proposition de refondation des taxes locales qui puisse répondre efficacement à cette quadrature des impôts locaux : équité, efficacité, autonomie et coopération. Dans une première partie, les questions d’efficacité et d’équité sont traitées à travers le choix des assiettes fiscales : reprendre les assiettes nationales. Dans une seconde partie les questions de concurrence fiscale et de coopération sont traitées à travers le choix des taux et la répartition des assiettes. La dernière partie discute des problèmes qu’une telle imposition locale peut engendrer.

    1. Asseoir la fiscalité locale sur les assiettes modernes

    L’obsolescence des assiettes locales s’observe par leur distanciation aux assiettes nationales, qui se sont améliorées en termes d’efficacité et d’équité. On pourrait asseoir les taxes locales sur les mêmes assiettes que les taxes nationales, ce qui outre le gain d’efficacité économique et de justice fiscale, permettrait des économies administratives puisqu’il ne serait plus nécessaire de calculer des assiettes spécifique à la fiscalité locale. Seule l’assiette nationale brute serait considérée, sans les politiques de déductions et réductions d’impôts. Celles-ci sont des politiques nationales de subventions de certains comportements et activités, passant par la fiscalité pour des raisons administratives, mais ne concernant que les prélèvements nationaux.

    1.1. Revenus

    Une fiscalité juste passe en premier lieu par l’imposition des revenus des personnes physiques. Cela permet de contrôler le caractère équitable via le barème, directement appliqué aux capacités contributives des ménages. Or, le calcul des revenus agrégés est déjà opéré par les services fiscaux pour l’IR national. C’est donc cette assiette qu’il faut prendre en compte pour la contribution locale sur les revenus (CLR). Par ailleurs, l’IR national impose les ménages en spécifiant leur lieu d’habitation principal, ce qui permet de localiser immédiatement les ressources prélevées.

    L’imposition des revenus en France présente néanmoins l’inconvénient d’être éclatée entre trois impôts : d’une part le prélèvement forfaitaire unique (PFU) pour les revenus du patrimoine mobilier ; d’autre part la CSG et l’IR au barème pour les autres revenus. De plus, l’IR seul ne peut pas être pris comme référence car seulement deux cinquièmes des ménages en sont redevables. Or, il s’agit de mettre en place un impôt local unique payé par l’ensemble des ménages en fonction de leur capacité contributive (et non en fonction de la valeur locative de leur logement).

    Deux solutions sont envisageables : soit les services fiscaux font la somme des impôts sur le revenu des ménages et on y ajoute un pourcentage d’imposition locale ; soit ils additionnent les assiettes de l’IR et du PFU pour créer l’assiette de la CLR avec un barème spécifique. Ce barème serait national avec un taux très faible mais positif dès le premier euro. Les collectivités n’auraient pas le pouvoir d’en modifier la progressivité mais juste de prélever plus ou moins en apposant un coefficient multiplicatif local (qui pourrait être encadré).

    1.2. Patrimoines

    En ce qui concerne l’imposition des patrimoines, les assiettes nationales sont limitées. Il existait un impôt – l’ISF – dont l’assiette était déclarative et qui ne concernait qu’une infime proportion de ménages. Il a été remplacé par l’impôt sur la fortune immobilière (IFI), limité aux grandes fortunes alors que la taxe foncière touche pratiquement tous les propriétaires (dont des proportions non négligeables parmi les ménages les plus modestes (Carbonnier, 2019)).

    L’idée dans un premier temps serait de généraliser le calcul d’une assiette agrégée de l’ensemble des propriétés foncières à tous les ménages, et de remplacer la taxe foncière à taux unique par une contribution locale sur la propriété foncière (CLPF) avec un barème progressif. La difficulté serait d’attribuer les recettes entre les différentes collectivités territoriales puisqu’un ménage peut avoir des propriétés dans plusieurs localités. Si on ne cherche pas à laisser un pouvoir de taux aux collectivités sur cet impôt, cela ne pose pas de difficultés et il suffit de répartir les recettes en proportion de la valeur des propriétés. Si on souhaite laisser un pouvoir de taux l’opération consisterait à calculer l’assiette nationale et le taux moyen d’imposition du fait du barème progressif. Ensuite, l’assiette serait fractionnée entre les collectivités en proportion des valeurs des propriétés et le taux moyen modifié du coefficient multiplicateur local (là encore potentiellement encadré) serait appliqué à chaque portion d’assiette.

    1.3. Entreprises

    Pour les entreprises, l’assiette nationale est calculée pour l’impôt sur les bénéfices (IS). Il n’est pas question d’imposition progressive donc il suffirait de déterminer les taux de la cotisation locale sur les bénéfices (CLB), potentiellement encadrés. Les recettes seraient réparties comme la CVAE actuelle : deux tiers en fonction des effectifs et un tiers en fonction des locaux occupés. Cet impôt n’aurait vocation à remplacer que la CVAE et les autres taxes locales sur les entreprises – notamment IFER et CFE – pourraient être conservées.

    2. Choix des taux et allocation des assiettes taxables

    La solution radicale pour limiter la concurrence fiscale reviendrait à imposer nationalement un taux. Un contrôle plus souple laissant de l’autonomie aux collectivités peut être obtenu par l’imposition d’un tunnel des taux possibles, plus ou moins large selon le risque de concurrence fiscale.

    2.1. Impôt local sur le revenu

    Pour se faire une idée du coefficient moyen concernant CLR, il faut comparer les recettes de TH avant réforme aux recettes nationales d’imposition des revenus. En 2017, la TH prélevait 22,6 milliards d’euros et la somme de la CSG et de l’IR 210,0 milliards d’euros (calculs à partir de DG Trésor, 2018). Le tunnel de coefficients multiplicateurs locaux devrait donc être centré autour de 10 %.

    2.2. Impôt local sur les entreprises

    Le CAE a fait le calcul que pour remplacer la CVAE a recettes constantes : il faudrait à terme un taux additionnel de 4 % d’IS plus une part des 25 % nationaux (Martin et Trannoy, 2019). En effet, la suppression de la CVAE augmente de facto l’assiette imposable à l’IS puisque la CVAE est déductible de l’IS.

    La vraie question concerne le périmètre de restitution de la CLB. Cette ressource doit profiter aux intercommunalités qui abritent les entreprises et leur offrent des infrastructures. C’est d’une certaine façon le prix à payer pour l’utilisation de ces infrastructures. C’est aussi le prix à payer parce que les actifs profitent des services publics locaux non seulement dans leur intercommunalité de résidence mais également dans leur intercommunalité d’activité. De même que les impôts ménages sont reversés à l’intercommunalité de résidence, il faut reverser la majeure partie de l’ILS à l’intercommunalité des établissements. Pour les entreprises pluri-établissements, il importe de répartir en fonction de l’occupation immobilière des établissements et de leurs effectifs salariés, ce qui est actuellement le cas pour la répartition de la CVAE.

    Toutefois, on peut envisager qu’une part seulement soit reversée aux intercommunalités sans condition. L’autre servirait à inciter à la coopération entre intercommunalités d’une même zone d’emploi. La part de CLB non directement versée aux intercommunalités serait conservée dans un fonds par zone d’emploi. Celui-ci servirait à financer les projets portés par plusieurs intercommunalités et ayant un objectif en faveur de la zone d’emploi. Un exemple évident serait des investissements dans un réseau de transport traversant plusieurs intercommunalités, nécessaire aux mobilités pendulaires dans la zone d’emploi.

    3. Potentiel et limites

    Les pistes de réforme ébauchées ici supposent des transformations en profondeur du système de financement des collectivités locales. Tout d’abord, comme tout changement d’envergure pensé à budget constant, il crée des gagnants et des perdants, à la fois du côté des ménages, des entreprises et des collectivités locales. Avant de rentrer dans ces considérations, il convient rappeler qu’il n’existe pas de contrainte technique à ces propositions. Les calculs d’assiettes sont déjà opérés au niveau national, tout comme le sont les impôts locaux actuels. Il s’agit donc d’une simplification administrative, aussi bien pour les contribuables que pour l’administration fiscale.

    Pour les ménages, l’impact principal de la réforme vient du remplacement des impositions proportionnelles par des impositions progressives. Les perdants sont donc les plus fortunés, les gagnants les plus modestes. La réforme consiste donc à renforcer la progressivité du système français de prélèvements obligatoires.

    Le cas des entreprises est plus complexe car une taxe sur la valeur ajoutée fiscale est remplacée par une taxe sur le bénéfice. Les différences proviennent de la part des immobilisations dans les coûts de production, ce qui favorise les entreprises industrielles. De plus, une redistribution serait de facto opérée des entreprises les plus rentables vers les entreprises les moins rentables. Il s’agit certes d’une redistribution d’un point de vue statique, mais elle peut être interprétée d’un point de vue dynamique comme une fonction assurantielle de la fiscalité : les entreprises paient plus en conjoncture haute et moins en conjoncture basse.

    Ce dernier point soulève un problème du point de vue des collectivités territoriales car les recettes d’IS seraient plus volatiles que les recettes de CVAE. Toutefois, il rentre dans les prérogatives des pouvoirs publics d’assurer les agents économiques contre les cycles économiques, ce qui peut être opéré via l’endettement. On peut alors penser à des mécanismes de dette gagée par l’État en fonction des pertes de CLB du fait du cycle économique.

    Enfin, le dernier problème pour les collectivités territoriales provient de la modification que subiraient les potentiels fiscaux en fonction de la localisation des ménages aisés et des entreprises les plus rentables. Il existe déjà de nombreux mécanismes de péréquation, il serait envisageable de les ajuster pour répondre aux modifications de potentiels fiscaux générés par la réforme.

    [retour ; haut de page]

    Contre les inégalités, redistribuer les revenus est nécessaire mais pas suffisant

    AOC média, 7 mars 2019, avec Nathalie Morel

    La question de la justice fiscale est à la une de l’actualité, à la fois internationalement avec un nouveau plan de l’OCDE pour restructurer l’architecture mondiale d’imposition des sociétés que nationalement avec des questionnements notamment sur les réformes récentes touchant la fiscalité du capital – transformation de l’impôt de solidarité sur la fortune (ISF) en impôt sur la fortune immobilière (IFI) ; réduction de l’imposition de certains revenus du capital à travers un taux unique de 30 % couvrant à la fois les impôts et les prélèvements sociaux (PFU) ; baisse du taux d’imposition des entreprises de 33 à 25 % et perpétuation du CICE et du pacte de responsabilité.

    Ces débats sont utiles mais non suffisants. Pour avoir une vision d’ensemble des politiques publiques ayant un impact sur les inégalités, il importe non seulement de mesurer la progressivité du système socio-fiscal dans sa globalité – c’est-à-dire mesurer à la fois les impacts redistributifs des prélèvements et des prestations – mais également d’évaluer l’ensemble des politiques qui structurent les inégalités en amont – inégalités de rémunérations, d’accès à l’emploi – ainsi que celles qui gouvernent l’accès aux services publics.

    Un cas intéressant est celui des dépenses fiscales, et particulièrement celles qui ont une motivation sociale, parce qu’elles jouent sur les inégalités par tous les aspects. De fait, elles modifient la progressivité des prélèvements puisqu’elles accordent de plus faibles impôts à certains ménages. Souvent, elles remplacent des subventions ou des prestations directes, et en ce sens peuvent modifier le profil des transferts. Enfin, le fait de développer une politique sociale à travers le filtre des incitations fiscales structure l’accès et la qualité des services sociaux.

    La politique fiscale de soutien aux services à la personne, un cas d’école

    Dans ce sens, le crédit d’impôt pour l’emploi d’un salarié à domicile est un cas exemplaire. Il s’agit d’un crédit d’impôt dont le coût public est non négligeable (4.8 milliards d’euros par an) et qui affiche plusieurs motivations : créer de l’emploi pour les moins qualifiés d’une part et répondre à de nouveaux besoins sociaux d’autre part. En effet, ce crédit a été créé au début des années 1990 et fortement étendu dans les années 2000 dans le cadre de politiques considérant que la lutte contre le chômage des moins qualifiés ne pouvait passer que par la baisse du coût de leur travail. En parallèle, la politique visait à financer en partie les consommations de services sociaux – notamment garde d’enfants et aides à domicile pour les personnes en perte d’autonomie – dont les besoins sont croissants avec le vieillissement de la population et la généralisation de l’accès des femmes au marché du travail. Passer par un crédit d’impôt devait permettre d’atteindre ces deux objectifs à moindre coût public.

    Or, si la frugalité en dépenses publiques est loin d’être atteinte, notre livre, Le retour des domestiques, montre l’échec de la politique sur tous ses objectifs. La mise en place initiale de la réduction d’impôt avec un plafond modéré (3800 € de dépenses annuelles) a permis d’augmenter l’emploi déclaré, notamment en sortant un certain nombre de salariées de la clandestinité. Cependant, les relèvements de plafond successifs (les dépenses annuelles éligibles sont aujourd’hui portées à 12 000 € et jusqu’à 20 000 € selon les caractéristiques du foyer) n’ont ni créé d’emploi ni permis d’en sortir de la clandestinité. Ceci n’est pas si étonnant, les foyers consommant plus de 4 000 € de services à la personne par an, et jusqu’à 10 000 ou 20 000 € par an, sont principalement des ménages très fortunés. Ceux-ci, même s’ils sont heureux de payer moins cher pour les services, ne modifient que marginalement leur consommation quand son coût varie.

    Ceci explique également le coût de la mesure. Elle ne crée pas d’emploi, mais elle subventionne jusqu’à des niveaux annuels très élevés (jusqu’à 10 000 € de crédit d’impôt annuel) des ménages qui auraient consommé la même quantité de services sans la mesure.

    Pour ce qui est de l’objectif de répondre à des besoins sociaux nouveaux, il s’avère que les services d’aides à domicile ou de garde d’enfant sont minoritaires dans les services effectivement subventionnés par le crédit d’impôt. La majorité des services ouvrant droit à crédit d’impôt sont en fait du ménage, du repassage ou du jardinage pour des employeurs valides.

    Une politique multi-polarisante

    Ainsi, si cette politique ne crée pas d’emplois et ne permet pas de développer des services dont ont tant besoin de plus en plus de ménages, elle est surtout une forme de redistribution des richesses à travers une subvention prenant la forme d’une diminution d’impôt. Or, cette redistribution des richesses est extrêmement inégalitaire : la moitié la plus modeste de la population capte moins de 7 % de cette dépense fiscale alors que le dixième le plus aisé en perçoit plus de 43 % à lui seul. En effet, même fortement subventionnés, ces services restent bien trop chers pour les ménages modestes et seuls les plus aisés les consomment, et en profitent pour faire baisser leurs impôts.

    Certains argumentent que le profil anti-redistributif de ce dispositif se justifie dans la mesure où les ménages moins aisés bénéficient pour leur part de dispositifs publics sous condition de ressources dont sont de fait exclus les ménages plus aisés. C’est le cas notamment en ce qui concerne la prise en charge de la dépendance, où l’Allocation Personnalisée d’Autonomie (APA) dépend en partie des ressources financières du bénéficiaire. En pratique, une équipe médico-sociale évalue le niveau de dépendance de la personne en perte d’autonomie et prescrit le nombre d’heures de services dont elle a besoin. Ces heures sont ensuite financées par la prestation dans la limite d’un plafond mensuel, et avec une participation du patient dès qu’il gagne plus de 811 € par mois. Cette participation du patient au paiement des heures prescrites croît avec son revenu pour atteindre le plafond de 90 % à partir de 2 987 € par mois. L’existence d’un tel reste à charge pour des ménages aux revenus modestes (dès 811 €) génère un renoncement à une partie des services – pourtant prescrits par une équipe socio-médicale. À l’opposé, les personnes âgées plus aisées consomment un grand nombre d’heures de services – bien au-delà du plan d’aide prescrit – en bénéficiant très largement du crédit d’impôt.

    L’inégalité d’accès aux services à la personne se retrouve également dans la garde d’enfant. La France offre seulement une place en crèche pour cinq enfants en âge préscolaire, mais subventionne – notamment par le crédit d’impôt pour l’emploi à domicile – les modes de garde individuels. Une conséquence est que la France est le pays de l’OCDE le plus inégalitaire dans l’accès à la garde d’enfants en bas âges. Plus de 80 % des enfants du tiers le plus aisé des ménages français bénéficient d’une garde formelle (garde collective ou individuelle sous la responsabilité de personnes rémunérées pour cela). Ce taux est supérieur à tous les pays de l’OCDE, y compris les Scandinaves. En revanche, seulement 18 % des enfants du tiers des ménages les plus modestes bénéficient d’un mode de garde formel. C’est bien en-dessous des Scandinaves mais aussi moitié moins que l’Espagne ou la Belgique, et au niveau de l’Italie.

    Outre l’impact inégalitaire sur les enfants eux-mêmes, cela se traduit également très fortement dans les carrières des mères. Si les mères les plus qualifiées peuvent conserver une activité professionnelle – ce dont on ne peut que se réjouir – les femmes les moins qualifiées sont souvent forcées d’interrompre leur carrière, avec des conséquences à long terme en matière d’employabilité et de salaires.

    Des possibilités d’évolutions favorables

    Pour autant, il serait faux de croire que c’est une fatalité, que nombre de salariées sont trop peu qualifiées pour trouver un emploi si ce n’est mal payé et avec des conditions de travail dégradées. Tout comme il serait faux de croire que les inégalités d’accès aux services essentiels que constituent l’aide à l’autonomie et la garde d’enfant sont négligeables et compensées par le reste des politiques sociales. C’est bien l’accès global à la garde d’enfant – quel que soit sa forme – qui est inégalitaire du fait qu’une part de la politique passe par le crédit d’impôt.

    Pourtant, il est possible de réorienter les sommes importantes qui ont aujourd’hui si peu d’effets bénéfiques et tant d’effets pervers vers une politique volontariste de service public de l’autonomie et de la petite enfance. Nous ne préconisons pas de remettre en cause totalement le crédit d’impôt mais au moins de séparer totalement les politiques vis-à-vis des services de confort (pour lesquels la politique ne peut être qu’une politique de l’emploi) et des services sociaux (pour lesquels la qualité et l’égalité d’accès doivent être les premiers objectifs).

    Les évaluations ont montré que les relèvements de plafonds annuels de dépenses éligibles n’ont pas créé d’emplois ni n’en ont sorti de la clandestinité. Il convient donc de baisser drastiquement les plafonds. Pour les services sociaux, il faut même modifier la forme de la politique pour assurer un accès à tous les ménages qui en ont besoin et un contrôle effectif de la qualité. La garde d’enfant en bas âge est le prélude à la scolarisation comme l’aide à l’autonomie est la continuation des soins médicaux. D’ailleurs, le manque d’aide à l’autonomie se traduit par un surcroît d’hospitalisation et un engorgement des services d’urgence. Ce qu’on croît économiser d’un côté, on le repaie de l’autre, mais avec des conséquences néfastes pour les ménages. La puissance publique doit prendre la mesure de sa responsabilité quant à un accès universel de tous les enfants à un mode de garde de qualité et de toutes les personnes en pertes d’autonomie à des aides à domiciles appropriées.

    Comme nous l’avons mentionné, les services à la personne sont un cas d’école et des similarités peuvent être trouvées ailleurs. Bien d’autres politiques socio-fiscales méritent d’être évaluées quant à la réalité de leurs effets incitatifs et redistributifs, ainsi qu’à la manière dont elles structurent la protection sociale en général. Il conviendra alors de réduire drastiquement celles qui ne sont pas incitatives et trop anti-redistributives, et de mettre à la place des actions ciblées et structurantes pour s’assurer d’une protection sociale réellement universelle.

    [retour ; haut de page]

    Entre les dépenses publiques et les impôts, il y a les niches fiscales

    Le Monde, 24 janvier 2019

    Si le Gérald Darmanin a ouvert le débat sur une diminution des niches fiscales, il semble indiquer que le crédit d’impôt pour l’emploi à domicile ne fait pas partie des niches à modifier. Pourtant, ce crédit d’impôt est loin d’être parfait, comme nous l’analysons avec Nathalie Morel dans notre livre : Le retour des domestiques. Sans revenir entièrement sur cet avantage fiscal, il mériterait d’être profondément réformé. Cette politique tente aujourd’hui de mêler plusieurs objectifs, en l’occurrence de créer des emplois pour les travailleurs peu qualifiés et de financer le développement de services sociaux, en particulier la garde d’enfants et l’aide aux personnes en perte d’autonomie. Ces objectifs nécessitent des politiques différenciées.

    Pour les services de confort, le plafond d’un crédit d’impôt conservé doit être fixé en fonction de l’efficacité en termes de création d’emplois, l’objectif unique. Les études empiriques montrent que les niveaux de plafonds actuels sont bien trop hauts pour être efficaces. Pour les services sociaux, il faut contrôler à la fois les possibilités d’accès aux services et leur qualité, via une régulation forte et un financement direct. Cela peut passer, pour l’exemple de l’aide à l’autonomie, par un basculement du crédit d’impôt offert pour ces services vers l’extension d’allocations de type APA (allocation personnalisée d’autonomie), vers un conventionnement des services d’aides à l’autonomie sur le modèle des autres services de soins (médecins, infirmiers, kinésithérapeutes, etc.), ou encore vers la provision directe des soins par un service public de la dépendance.

    Les conséquences sur l’emploi peu qualifiés seraient positives. Les évaluations de la baisse de plafond de 1998 et des hausses du début des années 2000 pointent l’absence de variation de l’emploi déclaré en réponse à ces réformes. On peut donc s’attendre à l’absence de destruction d’emplois ou de retour à la clandestinité du fait de la baisse de plafond. En revanche, le financement direct de services sociaux devrait augmenter l’emploi, si ces emplois nouvellement financés ne se contentent pas de remplacer des emplois existants. La pénurie actuelle de services de garde d’enfant et d’aide à l’autonomie incite à penser qu’il y aurait bien une création nette d’emplois.

    Une telle réforme permettrait aussi d’améliorer l’égalité d’accès aux services de garde d’enfant et d’aide à l’autonomie. Aujourd’hui, malgré une allocation additionnelle ciblée – l’APA – des ménages modestes renoncent, à cause des restes à charge, à consommer les services pourtant prescrits par une équipe médico-sociale. C’est encore pire pour la garde d’enfant d’âge préscolaire, pour laquelle la France est parmi les plus inégalitaires de l’OCDE : 80 % du tiers le plus aisé des ménages fait garder son enfant contre seulement 18 % du tiers le moins aisé. Et ceci a des conséquences sur les carrières professionnelles des mères.

    Enfin, de tels changements permettraient d’avancer en ce qui concerne les conditions de travail et d’évolution de carrière des salariées du secteur. Le basculement permettrait de mieux contrôler les conditions de travail, aujourd’hui déficientes, et d’offrir de réelles possibilités de formation continue, aujourd’hui pratiquement inexistantes.

    [retour ; haut de page]

    Pour des sciences sociales unies, mais pas uniformisées

    9 octobre 2018

    Jean Tirole a publié dans Le Monde une très belle page publicitaire pour son Institut for advanced study in Toulouse (IAST). Il y défend une vision plus ouverte des sciences sociales, et particulièrement de l’économie à l’intérieur de celles-ci. Il présente de manière à la fois concise et claire les principales limites de l’hypothèse d’homo œconomicus : elle structure l’analyse par la modélisation d’agents économiques qui prennent, compte tenu de l’information à leur disposition, les meilleures décisions possibles au regard d’un objectif qui leur est propre. Or les objectifs – les fameuses préférences des agents – ne sont pas qu’intrinsèques mais également en partie socialement construits, et les agents ne prennent pas toujours leurs décisions rationnellement. Il appelle donc, citant à l’appui des publications de l’IAST, à une collaboration entre disciplines des sciences sociales, avec pourquoi pas à terme un objectif de réunification.

    En tant que praticien au quotidien de l’interdisciplinarité en sciences sociales (je ne ferai pas étalage des publications interdisciplinaires du Laboratoire interdisciplinaire d’évaluation des politiques publiques (LIEPP) mais laisserai les curieux aller chiner sur le site), je ne peux que me réjouir d’un tel appel de la part d’une personnalité aussi éminente : du fait de ses nombreuses publications, il a notamment obtenu en 2014 le prix de la banque de Suède en l’honneur d’Alfred Nobel. Mais je ne me contente pas de me réjouir et d’espérer que ce ne soit que le signe annonciateur d’une métamorphose profonde de l’analyse économique, je prends la balle au bond pour exprimer ce qu’est ma vision de l’interdisciplinarité en sciences sociales. Il y existe en effet de dangereux écueils dans la manière d’aller vers des sciences sociales réunies. Je ne fais absolument pas de procès d’intention à Jean Tirole et ne prétend surtout pas qu’il ne les a pas vus, je me contente de profiter de l’occasion pour les présenter.

    Un modèle, même particulièrement finement tuné, reste une vision partielle du monde

    Tout d’abord, et même si cela peut paraître trivial, il me semble essentiel de revenir sur ce qu’est un modèle théorique. Il s’agit d’une représentation simplifiée de la réalité servant à structurer la pensée par rapport à une problématique. Il n’a pas pour but d’être généraliste, ni absolument précis, mais il est au contraire un modèle réduit de la réalité à échelle variable. En effet, l’échelle varie en fonction de la problématique et du focus que l’on souhaite effectuer. On simplifie au maximum ce qui n’a pas (ou peu, ou du moins l’espère-t-on) d’influence sur notre problématique pour concentrer l’intégralité de notre capacité cognitive sur celle-ci, dans sa plus grande complexité. Un modèle est donc finalement un outil, avec un but précis, qui lui donne une capacité à nous faire comprendre une partie de la réalité socio-économique en laissant de côté les autres parties. De même que le tournevis sert à serrer des vis et les tenailles à retirer des clous, les différents modèles ont des périmètres d’application limités. Il existe certes des couteaux suisses multifonctions, ils sont pratiques si on ne veut pas s’alourdir avec plusieurs outils différents, mais sont souvent moins performants que l’outil spécialisé pour chacune de ses fonctions.

    L’analyse économique théorique est principalement une science hypothético-déductive, c’est-à-dire que ses modèles peuvent souvent se résumer sous la forme d’un si H, alors C, où C représente les conclusions que l’on tire des hypothèses de travail H : non seulement l’hypothèse d’homo œconomicus (avec plus précisément la forme des objectifs – égoïste ou altruiste, immédiat ou inter-temporel, etc.) mais également hypothèses de structure concurrentielle, de distribution de l’information, de cadre institutionnel, etc. La constitution de la boite à outil de l’économiste a souvent consisté à produire une multitude de modèles en se basant sur une multitude d’hypothèses de travail (mais une grande part conservant les caractères intrinsèques des objectifs et rationnels des décisions). On peut alors chercher à construire de nouveaux modèles utiles à la compréhension de la réalité socio-économique, soit en partant d’hypothèses nouvelles (afin de créer un nouvel outil pour un usage qui n’existait pas précédemment) soit en élaborant et complexifiant les hypothèses existantes pour mieux répondre à une problématique. Pour autant, dans ce processus, deux écueils sont particulièrement à éviter, le voile de complexité et l’excès de confiance.

    Le voile de complexité : risque de défaut de maîtrise voire de mathiness

    Nous autres pauvres humains avons un cerveau limité. Donc plus nous compliquons les hypothèses, plus nous compliquons le modèle et moins nous le maîtrisons. Beaucoup de modèles économiques ont atteint un tel degré de complexité qu’on ne peut plus les résoudre formellement. On a alors deux solutions, soit on fait des hypothèses simplificatrices de résolution, soit on fait de l’analyse numérique. Les deux voies peuvent être utiles mais aussi s’avérer dangereuses. Les hypothèses simplificatrices de résolution Hr peuvent structurer fortement les conclusions et il ne faut pas oublier que le modèle ne conduit plus à si H alors C mais bien à si H et Hr alors C. On peut alors avoir perdu par Hr la complexité et la généralité qu’on recherchait dans H. Pour faire de la résolution numérique, il faut aussi bien souvent rajouter des hypothèses fortes, au moins sur les formes fonctionnelles, qui peuvent avoir une grosse influence sur les conclusions. Qu’est-ce qui tient alors des hypothèses choisies et qu’est-ce qui tient des hypothèses subies ? À contrario, un modèle simpliste mais maîtrisé peut avoir ses vertus par la compréhension fine de ses contributions et limites, à condition de rester justement bien conscient de ces limites.

    Si une complexité mal maîtrisée des hypothèses peut créer du flou derrière lequel des erreurs d’interprétation peuvent se cacher, une complexité bien maîtrisée peut servir à cacher sciemment des biais d’interprétation. On passe alors d’un récipiendaire du prix de la banque de Suède en l’honneur d’Alfred Nobel à un autre, et en l’occurrence le dernier en date, Paul Romer et son concept de mathiness. Il s’est attaqué depuis quelques années à ce qu’il définit ainsi : "The style that I am calling mathiness lets academic politics masquerade as science. Like mathematical theory, mathiness uses a mixture of words and symbols, but instead of making tight links, it leaves ample room for slippage between statements in natural versus formal language and between statements with theoretical as opposed to empirical content." Il démonte précisément quelques articles renommés qu’il accuse de cacher des biais idéologiques derrière des hypothèses mathématiques mal interprétées. On comprend facilement comment il est d’autant plus facile de réaliser de tels méfaits lorsque la complexité des hypothèses et des modèles les rendent difficilement appréhendables, même à l’intérieur du champ de recherche.

    L’excès de confiance, où l’impérialisme économique

    L’autre grand écueil est évidement l’excès de confiance. Ce n’est pas parce qu’on a construit un modèle sur des hypothèses excessivement raffinées – et que l’on maîtrise totalement – que l’on a en sa possession l’outil absolu qui répondra à tous les besoins. Un des défauts de l’analyse économique basée sur l’homo œconomicus n’a pas tant été les limites de cette hypothèse que sa tentative d’application à toutes les sauces, pour tout expliquer, en dédaignant les apports des autres analyses. Un certain nombre d’économistes se sont retrouvés avec cet outil que constitue un modèle basé sur l’homo œconomicus – disons un marteau – et ont tenté non seulement de planter des clous avec (ce qui marche plutôt bien), mais aussi de serrer des vis (ce qui marche presque si on tape assez fort), de scier des planches (ce qui marche franchement mal) et de taper sur les doigts de quiconque tentait d’expliquer qu’un tournevis ou une scie-sauteuse pourraient être plus appropriés.

    Pour autant, et je me retrouve à défendre l’homo œconomicus contre un nouveau détracteur, je pense que le marteau n’a pas vécu, qu’il a encore de beaux jours devant lui. En effet, notre réalité socio-économique est encore fortement structurée par des mécanismes de marchés, et dans ceux-ci un nombre non négligeable d’acteurs prennent leurs décisions en fonction de leurs intérêts bien compris. Il ne pourra toutefois être vraiment utile qu’à condition de le cantonner à son périmètre de compétence, et pas plus.

    Pour une diversité des approches interdisciplinaires

    Ainsi, il y a plusieurs manières de faire de l’interdisciplinarité. On peut croiser les analyses : on sait que si Ha alors Ca, si Hb alors Cb et si Hc alors Cc. Ensuite, en réfléchissant conjointement entre chercheurs maîtrisant respectivement les hypothèses Ha, Hb et Hc, on peut tenter de comprendre la part de chacune dans le monde qu’on étudie, et mettre cette analyse en balance avec des analyses empiriques, qualitatives ou quantitatives (avec différentes méthodologies pour chaque type) pour tester directement des traces de Ca, Cb et Cc dans notre environnement socio-économique. C’est cette démarche que pour ma part je poursuis au sein du LIEPP et qui a donné naissance notamment au rapport interdisciplinaire d’évaluation du CICE, à une méta-analyse des politiques d’allègements de cotisations sociales ou à des travaux sur les politiques de soutien aux services à la personne, qui après une vie académique internationale vont bientôt connaître un débouché national plus grand public dans un ouvrage publié à la république des idées.

    On peut aussi construire un nouveau modèle lui-même interdisciplinaire en se basant sur des hypothèses prenant en compte les résultats de diverses sciences sociales : si superH alors C. Si une telle démarche est évidemment louable, et peut s’avérer très précieuse, il conviendra de garder à l’esprit qu’une tel modèle, même particulièrement finement tuné, reste une modélisation partielle et donc limitée de la réalité socio-économique, dont les résultats, aussi riches soient-ils, devront être analysés au regard des hypothèses de modélisation et mériteront d’être confrontés à d’autres hypothèses et d’autres analyses. L’interdisciplinarité est précieuse par l’analyse contradictoire des arguments et la réunification éventuelle des sciences sociales doit conserver la richesse de la diversité de ses approches. Nous aurions tout perdu si l’interdisciplinarité ne consistait qu’à construire un super marteau pour taper sur les clous, les vis, les planches et les doigts des autres approches en sciences sociales.

    [retour ; haut de page]

    Pour une défense du matérialisme

    la Vie des idées, le 27 septembre 2016.

    Dans le texte Comprendre le capitalisme, paru sur le site de La Vie des idées [1], Geoffrey Hodgson cherche à faire le point sur la définition du système capitaliste. De nombreux prédécesseurs se sont attelés à la tâche, rappelant que l’organisation de marchés était en soi insuffisante pour définir et donc comprendre le système capitaliste. Ces études ont souvent insisté sur la construction de marchés pour organiser l’échange de l’ensemble des moyens de production et en particulier la terre et le travail. Ce texte insiste plus particulièrement sur la construction de droits spécifiques qui ont permis l’extension de la propriété aux biens immatériels et en particulier aux titres de dettes : le point déterminant serait la possibilité juridique donnée à la construction des marchés financiers. Ainsi G. Hodgson « propose une définition du capitalisme qui inclut la propriété privée, la généralisation des marchés et des contrats de travail, et l’existence d’institutions financières bien développées ».

    Ces développements sont à la fois intéressants et convaincants. Malheureusement, l’auteur a tendance à céder à l’illusion de la révolution, en présentant un facteur essentiel du développement d’un système comme le facteur prépondérant, et réduisant les autres à des corolaires. C’est ainsi que ce texte me semble sujet à deux limites : un rejet peu argumenté du matérialisme et une vision erronée du marché du travail « idéal » d’une économie de capitalisme pur.

    Un idéalisme implicite et en mal d’arguments

    Geoffrey Hodgson construit sa vision du système capitaliste en opposition à ce qu’il présente comme la conception usuelle, basée sur les forces économiques liées aux technologies et aux rapports de production. Par ce positionnement, il situe sa contribution dans le cadre du débat qui oppose matérialisme et idéalisme :

    Il va de soi que la technologie est une condition nécessaire au progrès dans de nombreux domaines (…) mais il faut également s’interroger sur les conditions qui permirent l’évolution et la diffusion de ces nouvelles technologies.

    Il est en effet primordial de s’interroger sur ces conditions, et quiconque s’est intéressé à l’histoire sait que la superstructure et l’infrastructure, puisqu’il faut nommer les concepts par leur nom, évoluent concomitamment : leurs interactions sont primordiales dans la compréhension des sociétés [2]. En soi, le message pourrait être relativement consensuel : vous avez trop mis l’accent sur l’infrastructure et avez négligé la superstructure. Or, même chez nombre de matérialistes, le capitalisme a été défini par sa superstructure, tout en considérant que les fondements de cette superstructure étaient causés par l’infrastructure. C’est là un point essentiel pour comprendre l’intérêt et les limites de la thèse de G. Hodgson : définition ne vaut pas cause. Son ouvrage se fixe comme objectif de définir le capitalisme, pour mieux le comprendre. Bien souvent, il pousse au delà en interprétant les éléments constitutifs de la définition du capitalisme – en particulier sa superstructure – comme ses causes fondamentales ; c’est cette interprétation que je conteste.

    De plus, l’auteur tombe dans le travers classique de ceux qui veulent insister sur la nouveauté de leur contribution en minorant ce qui a été fait avant sur le sujet et en construisant un ennemi plus méchant qu’il n’est. Ainsi, la question de la minimisation de l’importance de la finance par ses prédécesseurs est pour le moins exagérée :

    Je ne suis certes pas le seul à affirmer que c’est l’émergence d’institutions financières sophistiquées qui marque l’avènement du capitalisme, mais on peut tout de même se demander pourquoi tant d’économistes et d’historiens, Marx y compris, ont choisi de minimiser l’importance de ces évolutions essentielles.

    L’exemple est particulièrement mal choisi quand Marx considère justement le capital financier comme le capital par excellence du développement capitaliste, et qu’il consacre l’intégralité du tome 2 du livre III de son œuvre majeure à ce sujet [3].

    Pour revenir à la question, on pourrait objecter que Geoffrey Hodgson ne prend pas clairement parti pour l’idéalisme mais qu’il critique le manque d’intérêt des matérialistes pour la superstructure. Cela me semble faux pour nombre de matérialistes, mais encore plus faux pour l’ensemble des auteurs ayant pensé le système économique, Marx notamment. Keynes, certes un idéaliste mais pas si marginal dans la pensée économique du capitalisme, présente justement le système financier comme la clef de la compréhension des conjonctures économiques [4]. Malheureusement, l’auteur ne se contente pas d’un tel message et critique la légitimité même de l’étude de l’infrastructure :

    Il faut abandonner les métaphores physiques basées sur des images d’entités et de forces, et présenter l’économie comme un système de traitement de l’information en perpétuelle évolution, impliquant la création, l’attribution et l’échange de droits juridiques appliqués à différents types d’actifs.

    Or, l’importance de la construction juridique de la possibilité des marchés financiers ne va aucunement à l’encontre de l’importance de l’évolution matérielle des modes de production. Et ceux-ci s’expriment en termes de forces. Dire que le capitalisme se définit par sa capacité à organiser juridiquement la finance ne disqualifie en rien une analyse de l’infrastructure qui a nécessité cette construction juridique pour se développer. Et ce d’autant plus que rien n’indique dans le raisonnement de l’auteur que cette construction juridique serait venue d’autre chose que des besoins créés par une production dont l’évolution s’est trouvée en butte à la question de la finance. Cette évolution institutionnelle de la finance serait alors le fruit de l’évolution de la production et des rapports de force sociaux qu’elle engendre.

    Ainsi, il cite la Glorieuse Révolution de 1688 comme point de départ du processus de transformation des droits sur la dette permettant le développement de la finance, et note que cette « “révolution financière”, (…) en partie initiée par l’État, [a préparé] le terrain pour la révolution industrielle à venir ». C’est un fait, mais cette construction juridique n’est pas venue de purs débats d’idées. Elle est venue des rapports de forces au sein des organes décisionnels anglais, rapports de force dans lesquels les marchands avaient acquis du pouvoir du fait de leur essor économique. Décrivant la période précédant cette Glorieuse Révolution, North et Weingast (1989) [5] parlent d’une lutte continuelle opposant le Roi à la fois au Parlement et aux tribunaux de common law, précisément sur le sujet des droits de propriété et de la manière dont la couronne « empruntait » ses ressources financières. Geoffrey Hodgson dit d’ailleurs lui-même que ce traitement juridique est venu d’une demande des hommes d’affaires :

    Au XVIIe siècle, suite à l’échec des tribunaux de droit commun au sujet de la négociabilité de la dette, les hommes d’affaires du pays demandèrent au Parlement de mettre en place une législation plus robuste.

    D’ailleurs, pour revenir sur les sources de ces « nouveaux accords politiques de 1688 », le poids de la dynastie néerlandaise des princes d’Orange dans cette révolution anglaise n’est pas seulement le fruit d’une histoire d’amour entre la fille de Jacques II et le Stathouder de Hollande, mais est bien lié à l’importance qu’avait pris le commerce mondial et la part prépondérante des princes d’Orange dans celui-ci. La Glorieuse Révolution n’a pas seulement inscrit juridiquement la possibilité de l’essor capitaliste, elle est aussi le résultat de ses premiers développements. Dans son livre [6], Geoffrey Hodgson note bien ces influences :

    La Glorieuse Révolution anglaise de 1688 était en réalité une invasion néerlandaise, quoiqu’elle fût précédée d’une invitation par un évêque et six membres de la noblesse. (…) Cette invasion fit basculer l’allégeance de l’Angleterre envers la Couronne française vers la Couronne néerlandaise et provoqua un afflux de marchands, banquiers, artistes et scientifiques néerlandais. Les négociants néerlandais amenèrent avec eux une connaissance précise des institutions financières et permirent à Londres de devenir le premier centre financier mondial.

    Ainsi, s’il est vrai que la constitution d’un droit de propriété permettant les marchés financiers a été essentielle au capitalisme, cela ne diminue en rien le caractère tout aussi essentiel de l’analyse matérialiste des fondements productifs qui ont nécessité le développement de ces marchés. Certes, des matérialistes ont poussé trop loin cette voie en présentant la superstructure comme une fonction déterministe de l’infrastructure. C’est également faux. La superstructure ne découle pas directement et univoquement de l’infrastructure. Il existe des choix sociaux et des variantes à ces superstructures [7], mais l’infrastructure impose des contraintes fortes qui font que les différentes variantes ont nombre de points communs entre elles, qui justement font que toutes ces variantes sont capitalistes. Il est donc important de comprendre ces rapports de forces infrastructurels pour analyser comment ils sont traités par diverses régulations. Si à l’inverse on néglige ces rapports de force issus des conditions matérielles de production, on risque de manquer certains enjeux prépondérants dans les débats autour des formes juridiques de régulation du capitalisme.

    Une vision erronée du marché du travail de pur capitalisme

    Ce manque d’intérêt pour les développements matériels du processus productif capitaliste se révèle en particulier lorsque Geoffrey Hodgson traite la question du marché du travail. Il fait un profond contresens en voulant voir dans l’abolition de l’esclavage l’exemple de la primauté des structures de l’esprit sur ce qu’il croit être les développements du capitalisme poussés par son infrastructure :

    Dans la mesure où l’abolition de l’esclavage et l’adoption du contrat de travail excluent la possibilité d’un marché à terme total de la main d’œuvre, il existe forcément des défaillances de marché dans le système capitaliste. […] En refusant l’esclavage et en développant le travail salarié, le capitalisme a fondamentalement limité la portée des marchés, en empêchant la création d’un marché à terme total de la main d’œuvre. […] C’est grâce aux idées des Lumières sur la liberté individuelle et l’égalité juridique que le capitalisme a pu voir le jour. Or il est juste que nous ne soyons pas libres de réduire les autres en esclavage, de vendre des esclaves, ou de devenir nous-mêmes esclaves.

    En présentant cet exemple ainsi, il pose implicitement deux hypothèses qu’il semble présenter comme des résultats de son analyse. Premièrement, le développement du capitalisme pur passerait par l’esclavage, et le salariat ne serait qu’un pis-aller compte tenu de l’absence d’esclavage. Deuxièmement, l’abolition de l’esclavage serait le fruit d’un développement des idées humanistes et non le fruit d’un développement des conditions matérielles de production puisqu’au contraire ce dernier développement préfèrerait l’esclavage. À mon sens, ces deux hypothèses sont fausses, car l’abolition de l’esclavage ne s’oppose en rien au développement économique capitaliste, il en est au contraire le fruit et non celui des idées humanistes.

    Certes, des auteurs [8] ont publié dans les années 1970 une analyse cliométrique estimant que l’esclavage était encore une forme productive efficace lors de son abolition aux États-Unis. Toutefois, non seulement ces résultats ont été fortement contestés, mais surtout les auteurs eux-mêmes notaient bien que ce mode d’exploitation de la force de travail ne restait rentable que dans des contextes et pour des cultures très particulières. Ils trouvaient que l’esclavage n’aurait plus été rentable dans le Nord, non seulement dans l’industrie bien évidement, mais également dans l’agriculture. Il est important à ce propos de noter que l’esclavage avait alors déjà disparu dans ces États du Nord.

    Plus généralement, un point fondamental de l’analyse économique du capitalisme est la question de l’allocation des facteurs de production. On retrouve cette problématique dans quasiment toutes les théories économiques classiques, depuis Adam Smith jusqu’à l’analyse dominante moderne en passant par la définition de la discipline elle-même par Lionel Robbins : « l’économie est la science qui étudie le comportement humain en tant que relation entre les fins et les moyens rares à usage alternatif » [9]. Or, l’utilisation optimale de la force de travail – sous-entendu la plus productive – n’est absolument pas l’esclavage. Ce qui importe est bien la force de travail du travailleur et non le travailleur lui-même, et ce n’est pas en possédant le travailleur qu’on s’assure la plus grande force de travail.

    En laissant la charge au travailleur d’entretenir lui-même sa force de travail, on peut arriver à obtenir du travail plus productif, et c’est bien par le salariat (voire en rendant le travailleur encore plus « libre » via un statut d’indépendant) qu’on peut obtenir cette force de travail maximale. Ceci est d’autant plus vrai au fur et à mesure que la technologie demande du travail de plus en plus qualifié. Ainsi, l’esclavage se révèle de plus en plus obsolète au fur et à mesure du développement du capitalisme, et son abolition répond au développement matériel des conditions de production au lieu d’en être un frein, qui aurait été imposé par des philosophies humanistes.

    De ce point de vue, une rapide lecture historique est assez éloquente. En Europe, l’esclavage a disparu pendant la haute période féodale, au profit du statut de serf devenu petit à petit prépondérant. Celui-ci a lui-même commencé à disparaître au bas Moyen Âge. Si les Capétiens ont affranchi tant de serfs aux XIIIe et XIVe siècles, ce n’est pas uniquement par conscience morale, mais parce qu’ils y voyaient un intérêt économique ; Marc Bloch note même que « le nombre des affranchissements fut, en dernière analyse, fonction des conditions économiques du lieu et du moment » [10].

    Pour ce qui concerne l’un des affranchisseurs les plus actifs, à savoir Philippe le Bel, l’intérêt économique de l’affranchissement lui a d’ailleurs été suggéré par ses ministres, qui devaient précisément leur place au développement économique et à l’essor de la bourgeoisie qu’il avait permis. Les progrès techniques agricoles, et les besoins de superstructure pour permettre leur mise en place effective, ont participé au fait qu’on pouvait finalement tirer plus d’un travailleur libre bien imposé que d’un serf. C’est alors un système apparenté au métayage qui est apparu, puis s’est imposé avec la raréfaction de la main d’œuvre consécutive à la guerre de Cent Ans et à la peste noire, le salariat ne se généralisant que bien plus tard avec d’autres besoins spécifiques dans l’utilisation de la main-d’œuvre.

    Bien sûr, le lien entre développement productif et statut des travailleurs ne fut ni déterministe ni univoque. Les retours en arrière opérés par la réaction féodale à la suite du règne du roi de fer – et le passage de son coadjuteur, issu de la bourgeoisie, à Montfaucon – en sont la preuve. Mais à l’époque de la découverte du Nouveau Monde, l’esclavage avait depuis longtemps disparu d’Europe et le servage en avait fait autant. Ce sont bien les conditions économiques de défrichement et de culture particulières des colonies qui ont relancé l’esclavage et non un retour en arrière des idées philosophiques à l’époque de la Renaissance.

    De même, la fin définitive de l’esclavage n’est pas la simple conséquence de la philosophie des Lumières, contrairement à ce que Geoffrey Hodgson avance. Il est notable qu’en France par exemple, quelques années après la fièvre démocratique qui avait poussé la convention à abolir l’esclavage en 1794, celui-ci ait été rétabli pour de nombreuses décennies [11]. Si l’abolition définitive a été le fruit d’engagements éthiques personnels, tel celui de Victor Schœlcher, il a été aussi fortement lié au fait que cette forme de travail n’était plus si nécessaire au développement économique des colonies. Dans ce sens, le cas des États-Unis est également marquant, où le Nord industriel avait de fait aboli l’esclavage depuis longtemps, non pour des raisons humanistes mais bien parce qu’il n’était pas utile au développement de son industrie.

    Geoffrey Hodgson, dans sa défense d’une approche institutionnaliste de l’analyse économique, insiste sur l’importance du cadre juridique dans le développement du capitalisme. Son analyse, très éclairante à ce sujet, a tendance à négliger les forces économiques pour ne valider qu’une histoire des institutions via le développement des idées. Or, même si les institutions ne découlent pas de manière déterministe des conditions matérielles de production, celles-ci jouent très fortement dans leur établissement.

    Notes

    [1] L’article de G. Hodgson est une présentation de son ouvrage Conceptualizing Capitalism : Institutions, Evolution, Future (University of Chicago Press, 2015).
    [2] Rappelons ici que la superstructure désigne dans la philosophie de Marx le cadre de l’activité économique, défini par les valeurs morales et philosophiques, les institutions et les relations formelles de pouvoir entre les individus ; quand l’infrastructure désigne les conditions matérielles de production, qui renvoient à des conditions techniques et technologiques ainsi qu’aux relations réelles de pouvoir entre les classes.
    [3] Karl Marx, Le Capital, livre III, Le procès d’ensemble de la production capitaliste, tome 2, Éditions sociales.
    [4] John Maynard Keynes (1935) The General Theory of Employment, Interest and Money, BN publishing, 2008. Dans le chapitre 12, « The State of Long-Term Expectation », il élabore la parabole du concours de beauté pour présenter le caractère autoréférentiel des marchés financiers, source de bulles et de crises.
    [5] Douglass C. North et Barry R. Weingast (1989) “Constitution and Commitment : The Evolution of Institutional Governing Public Choice in Seventeenth-Century England”, The Journal of Economic History, Vol. 49(4), p. 803-832.
    [6] Geoffrey Hodgson (2015), op. cit., p. 159-160.
    [7] On retrouve particulièrement ces problématiques dans les littératures de la théorie de la régulation et de la variété du capitalisme.
    [8] Robert William Fogel et Stanley L. Engerman (1974) Time on the Cross : The Economics of American Slavery, W. W. Norton & Company, New-York, 1995.
    [9] Lionel Robbins (1932) An Essay on the Nature and Significance of Economic Science, MacMillan and Co., Londres.
    [10] Marc Bloch (1920) Rois et serfs : Un chapitre d’histoire capétienne et autres écrits sur le servage, Champion, Paris.
    [11] Pour une analyse détaillée des débats, aussi bien dans les assemblées parisiennes que dans les champs haïtiens, voire C. L. R. James (1963) The Black Jacobins, Vintage books edition, New York, 1989.

    [retour ; haut de page]

    Théorie Lavoisienne de la valeur appliquée au non-deal Bouygues-Orange

    10 avril 2016

    « Rien ne se perd, rien ne se crée, tout se transforme », cette aphorisme attribué à Lavoisier s’applique-t-il à la valeur ? Le journal « Les Échos » ne semble pas le penser puisqu’il titrait ce mardi 5 avril 2016 « Télécoms : plus de 10 milliards partis en fumée en Bourse ». Ceci faisait référence à la baisse de cotation des actions des quatre opérateurs téléphoniques après l’annonce de l’abandon des négociations entre Orange et Bouygues. Les négociations étaient en cours pour repasser de quatre à trois opérateurs téléphoniques. Le principe général était un partage de Bouygues entre les trois opérateurs restants (pour garder un équilibre entre les trois). En pratique, c’est Orange qui devait réaliser l’opération de rachat puis vendre des parties à ses concurrents. Les marchés financiers devaient voir sous un bon œil ce rachat puisqu’ils ont fortement diminué la valorisation boursière des quatre opérateurs après l’échec de l’opération. Pour autant, regarder uniquement les capitalisations boursières de quatre opérateurs téléphoniques peut s'avérer un peu léger pour dire que de la valeur est partie en fumée. Est-ce vraiment de la valeur qui a disparu ? A-t-elle vraiment disparu où a-t-elle été transférée ? Qui seraient alors les bénéficiaires et les perdants du transfert ? Posons-nous deux minutes et tentons de raisonner calmement.

    Pour commencer, il faut se demander ce qu’est cette capitalisation boursière qui a baissé ? Selon la théorie standard de la valeur fondamentale, la capitalisation boursière serait égale à la somme des dividendes futurs actualisés [1] qui serait donc cette « valeur fondamentale » de l’entreprise. Si on croit cette théorie, le principe serait que le rachat de Bouygues par Orange (et son partage avec les autres opérateurs) devait permettre d’augmenter les profits futurs des opérateurs et donc les dividendes qu’ils auraient versés à leurs actionnaires. Les 10 milliards d’euros seraient alors ces profits supplémentaires qui n’auront pas lieu. C'est finalement en considérant ce principe que les échos considèrent que 10 milliards sont partis en fumée.

    Toutefois, ce principe théorique est loin d'être évident. Il existe tout d'abord de grandes raisons de se tromper dans son évaluation des flux de profits futurs (nous y reviendrons plus spécifiquement) et cette information imparfaite peut mener à des processus faisant dévier la valeur de la capitalisation boursière loin de la valeur fondamentale. Le premier point est que quand un individu achète un titre, ce peut être pour en toucher les dividendes, ou pour le revendre plus cher plus tard. Dans ce second cas, ce qui l'intéresse n'est pas directement la valeur fondamentale de ce titre, mais la manière dont ce titre est et sera évalué par les marchés aux dates d'achat et de vente. Ainsi, sa seule question pour décider d'acheter un titre aujourd'hui n'est pas de savoir si son prix est supérieur ou inférieur à sa valeur fondamentale, mais si sa valorisation par le marché va augmenter ou baisser. Or, cette variation de la valorisation elle-même dépend du fait que beaucoup de gens vont vouloir l'acheter ou non. On entre ainsi dans un processus auto-référentiel qui peut se déconnecter fortement de toute valeur fondamentale. C'est ce que Keynes présentait sous la parabole du concours de beauté :

    « La technique du placement peut être comparée à ces concours organisés par les journaux où les participants ont à choisir les six plus jolis visages parmi une centaine de photographies, le prix étant attribué à celui dont les préférences s'approchent le plus de la sélection moyenne opérée par l'ensemble des concurrents. Chaque concurrent doit donc choisir non les visages qu'il juge lui-même les plus jolis, mais ceux qu'il estime les plus propres à obtenir le suffrage des autres concurrents, lesquels examinent tous le problème sous le même angle. Il ne s'agit pas pour chacun de choisir les visages qui, autant qu'il peut en juger, sont réellement les plus jolis ni même ceux que l'opinion moyenne considèrera réellement comme tels. Au troisième degré où nous sommes déjà rendus, on emploie ses facultés à découvrir l'idée que l'opinion moyenne se fera à l'avance de son propre jugement. Et il y a des personnes, croyons-nous, qui vont jusqu'au quatrième ou au cinquième degré ou plus loin encore. »

    Certes, des économistes avancent que des spéculateurs avisés – appelés des arbitragistes – font leur beurre en prenant des positions pour bénéficier des écarts entre prix et valeur fondamentale. Leurs interventions (augmentation de la demande quand les prix sont plus bas que la valeur fondamentale – ils achètent bon marché – et augmentation de l’offre quand les prix sont au-dessus de la valeur fondamentale – ils vendent cher) permettraient de ramener les marchés financiers vers les valeurs fondamentales des actifs. Or c'est tout à fait douteux. Comme le montre assez bien le livre et le film « the big short » (duquel vous trouverez un commentaire détaillé sur ce blog), les arbitragistes ne sont pas assez influents pour modifier suffisamment les marchés financiers. Ils arrivent au mieux à gagner de l'argent sur des écarts qu'ils auraient bien anticipés, à moins qu'ils ne fassent faillite avant que les astres ne se réalignent. Ainsi, les 10 milliards dont parlent « Les Échos » ne seraient pas de la valeur mais la manière dont les acteurs sur les marchés financiers évaluent ce que pourrait être l’évaluation par l'ensemble de leurs confrères de ce que pourrait être l'anticipation par les marchés financiers de la perte de valeur future actualisée.

    Changement de potentialité de valeur

    Quand bien même nous aurions une confiance aveugle dans l'efficacité allocative des marchés financiers – c'est à dire en supposant que ces marchés auraient la faculté de valoriser les entreprises selon leur flux de revenus futurs – ce n'est pas directement de la valeur, ni même de l'argent qui a disparu. Rien de réel n’a été détruit, il ne s’agit que de potentialité de valeur qui disparait, donc pas en fumée, mais en rêve. Rien n’est plus incertain que l’avenir. Peut-être découvrira-t-on d’ici la réalisation de cette valeur potentielle un nouveau moyen de communication qui rendra les opérateurs totalement obsolètes. Dans ce cas, la réalisation de leur valeur future aurait été zéro avec ou sans la concentration du marché, donc aucune valeur n’aurait été perdue, même dans le futur. On est donc bien dans de la probabilité de valeur potentielle future qui aurait été évaluée à la baisse par les marchés financiers.

    Certes, d’aucun feront remarquer qu’il y a bien aujourd’hui des individus qui ont gagné ou perdu de l’argent. Mais il s’agit là de transactions : l’argent est passé d’un individu à un autre. Ce transfert de valeur entre deux individus ne constitue ni une création ni une destruction valeur. Surtout, ces gens ayant effectué les transactions comptent pour bien moins des 10 milliards, car une faible part des actions des quatre opérateurs ont changé de portefeuille. Les 10 milliards sont calculés en imputant à chaque action la diminution de prix observée sur les actions qui ont été échangées. Les gens qui les ont gardé n’ont aujourd’hui ni perdu ni gagné, leurs gains ou pertes dépendront du flux de dividende qu’ils percevront jusqu’à la vente de l’action et du prix de cette vente.

    Lavoisier avait bien tort, de la valeur future est en fait apparue

    Allez, arrêtons de faire du mauvais esprit et acceptons l’idée que les marchés financiers évaluent de manière tout à fait exacte la chute de profits futurs des opérateurs, non pas potentielle mais bien celle qui va se produire car elle ne sera impactée par aucun aléa économique à venir. L’avenir est certain et révélé par les marchés financiers. Ces 10 milliards ont alors bien disparu, non ? Toujours pas ! Ces 10 milliards de valeur future auraient alors quitté les quatre opérateurs, mais non pour disparaître. Le réseau n’a pas été détruit, la production de communication n’a en rien baissé non plus. En fait, ces 10 milliards viendraient du fait qu’à trois on a plus de pouvoir de marché qu’à quatre et qu’on peut faire payer plus cher pour les mêmes prestations. Ainsi, ces dix milliards de valeur future actualisée potentielle ne seraient pas partis en fumée mais auraient été transférés dans les porte-monnaie futurs actualisés potentiels des consommateurs (car du fait de l’absence de concentration du marché, ils paieraient moins cher leurs communications).

    Pire, un plus grand pouvoir de marché permet à une entreprise de faire plus de profit car elle peut augmenter les prix et restreindre les volumes (l’un n’allant pas sans l’autre du fait de la réaction de la demande) en comptant sur le fait que la hausse du profit liée à la hausse des prix est supérieure à la baisse des profits liée à la baisse des volumes. Dans ce cas-là, Lavoisier aurait tort et le transfert qui aurait eu lieu des consommateurs vers les opérateurs si le rachat avait eu lieu aurait été destructeur de valeur : les opérateurs auraient récupéré moins que n’auraient perdu les consommateurs. Ceci veut dire que quand les opérateurs ont perdu 10 milliards en bourse, c’est que les consommateurs ont vu leur portefeuille futur potentiel se gonfler de strictement plus que 10 milliards. Les 10 milliards ne seraient pas partis en fumée mais seraient partis dans les poches des consommateurs en faisant des petits.

    Les causes d’une destruction possible de valeur future

    Maintenant, si on veut être tout à fait honnête, une fois qu’on a évoqué la possibilité que l’échec de l’accord ait en réalité créé de la valeur totale, il faut évoquer la possibilité qu’il en ait détruit. Deux arguments peuvent être avancés. Premièrement, la structure productive du secteur consiste à construire un réseau de télécommunications auquel accèdent les clients. Or, les quatre opérateurs ont actuellement des réseaux plus ou moins complets. Le rachat de Bouygues et le partage de son réseau devait permettre aux autres opérateurs de compléter leur propre réseau et ainsi d’offrir à leurs clients un service de meilleure qualité. Cette amélioration moyenne des réseaux – qui n’aura pas lieu – aurait effectivement constitué une création de valeur, qualitative et non quantitative.

    Deuxièmement se pose la question de la dynamique de l’amélioration des réseaux. Le réseau coûte cher à entretenir et à développer (géographiquement et pour ce qui concerne les nouvelles technologies). Les investissements sont donc réalisés si les opérateurs anticipent de forts rendements à ces investissements et s’ils ont les crédits pour le faire. Il est donc possible de soutenir qu’en empêchant les opérateurs d’augmenter leur profit futur, on a limité leurs facultés à investir dans l’amélioration du réseau, et donc on a limité leur création future de valeur qualitative. Toutefois, le même argument peut être retourné en disant qu’en limitant la concurrence entre les opérateurs, on aurait assuré leurs parts de marché et rendu moins nécessaire pour eux la course à la qualité.

    Quoi qu’il en soit, même si ces deux hypothèses se révélaient effectives, il faudrait un miracle pour que la perte de valeur future actualisée (qui consisterait en la différence entre l’augmentation quantitative liée aux prix bas et la diminution de qualité liée à une plus faible mutualisation des réseaux et de plus faibles investissements) soit exactement égale aux 10 milliards de diminution de la capitalisation boursière des quatre opérateurs français. Ainsi, si je suis bien sûr d’une chose, c’est que ce ne sont pas 10 milliards qui sont partis en fumée.

    [1] Le terme "actualisés" veut dire qu’on valorise à la date présente l’ensemble des gains à différentes dates. En effet, on ne valorise pas de la même manière un euro aujourd’hui et un euro demain. Il faut donc apporter en correctif lié à "la préférence pour le présent" aux revenus futurs quand on somme des revenus à différentes dates. Le fait d'opérer ce correctif est appelé actualisation.

    [retour ; haut de page]

    Comment agir contre les inégalités ? À propos de : Anthony B. Atkinson, Inégalités (Inequality. What Can Be Done ?), Seuil

    la Vie des idées, le 28 mars 2016.

    Anthony Atkinson publie un ouvrage à la fois très complet et très intuitif, qui embrasse la question des inégalités en essayant d’être le plus exhaustif possible. Il constitue une excellente introduction au domaine en même temps qu’un résumé de la connaissance économique sur la question. L’auteur ne se contente pas de réaliser une synthèse accessible de travaux existants mais propose dans un deuxième temps ses solutions pour réduire les inégalités effectives.

    Ce qu’il faut savoir sur les inégalités

    Le livre se découpe en trois parties, et la première – un grand état des lieux des connaissances – se suffirait à elle seule. L’auteur parvient à la fois à présenter le nombre très divers des dimensions de la question, à expliquer leur grande complexité, tout en restant clair et pédagogique.

    Pourquoi s’intéresser aux inégalités ?

    Anthony Atkinson défend d’abord son champ de recherche. Au milieu du grand écho qu’avait soulevé en 2013 le livre de Thomas Piketty, de nombreuses voix s’étaient en effet levées pour dire que les inégalités effectives ne sont pas un problème, et que seule compte l’égalité des chances. Avant cela, le rapport Attali pour la libération de la croissance préconisait que l’enseignement de l’économie dès le primaire devait « montrer que le scandale est dans la pauvreté plus que dans la richesse, dans les injustices plus que dans les inégalités ». Pour Anthony Atkinson, les inégalités comptent, y compris les inégalités des situations effectives.

    L’auteur cite sans trop avoir l’air d’y croire les études et les arguments liant les d’inégalités et les questions de cohésion sociale et de criminalité. Il s’interroge surtout sur le caractère réducteur de l’égalité des chances. Devrait-on s’accommoder des différences d’aléas tout au long du parcours ? Abandonner ceux qui décrochent sous prétexte qu’ils avaient les mêmes chances ? Et surtout, lorsqu’on organise une compétition (quand bien même il nous paraîtrait souhaitable d’organiser ainsi la société) devrait-on seulement s’intéresser à l’égale application des règles ou est-il légitime de s’intéresser aussi à la structure des récompenses ? Si les modèles néoclassiques montrent l’efficacité de la situation issue d’une hypothétique concurrence parfaite, ils montrent aussi la multiplicité des situations efficaces et le fait que le résultat concurrentiel n’a aucune raison d’être souhaitable du point de vue de l’équité.

    Et quand bien même on ne s’intéresserait qu’à l’égalité des chances, l’auteur rappelle que les inégalités effectives pour une génération ont des conséquences sur l’égalité des chances de la génération suivante. Dans un livre paru en 2015, Our Kids. The American Dream in Crisis, Robert Putnam montre les changements opérés dans la société américaine, notamment en termes de lutte contre les inégalités, et l’impact que cela a sur l’égalité des chances. Des économistes américains avaient étudié en 2014 les différentiels régionaux de mobilité intergénérationnelle et trouvé de nombreux déterminants, dont les institutions luttant contre les inégalités [1]. Pour le cas de la France, il a été montré que des caractéristiques sociales des parents avant la naissance de leurs enfants suffisaient à expliquer près de la moitié des différences de santé de ces derniers à l’âge adulte [2]. De même, l’influence familiale explique plus de la moitié des différences de niveaux d’étude [3] et l’INSEE vient de publier que l’espérance de vie à 30 ans d’un titulaire d’un diplôme supérieur est supérieure de 1,8 années à celle d’un bachelier, de 3,6 ans à celle d’un titulaire de CAP-BEP et de 7,6 ans à celle d’un sans diplôme. En définitive, séparer l’égalité des chances de l’égalité des réalisations paraît bien artificiel puisque la seconde est une condition de la première.

    La mesure des inégalités

    Il ne suffit pas de savoir pourquoi on s’intéresse aux inégalités, il faut être capable de les mesurer. Les choix d’échelle de la mesure (principalement l’individu ou la famille) ou d’unité de mesure (revenu, consommation, patrimoine) ont un impact sur la manière d’interpréter les chiffres : en termes de comparabilité des mesures, de valorisation de l’autonomie, d’inégalités dans la satisfactions des besoins, d’inégalités de confort, de prix d’accès, d’influence. Tout cela dépend aussi de la cause des évolutions : dispersion des salaires, du chômage et de l’inactivité, du partage de la valeur ajoutée entre le travail et le capital, de la concentration du capital, de variations dans les transferts sociaux ou la progressivité de l’impôt.

    Anthony Atkinson éclaire également le lecteur sur les différences des mesures elles-mêmes, qui se résument bien souvent à des indices se focalisant sur certaines parties de la distribution des revenus. Il montre comment l’envol des 1 % est fortement corrélé à l’augmentation de la pauvreté, mais aussi comment les inégalités peuvent s’accroitre entre certaines parties de la distribution des revenus et en même temps se réduire entre d’autres parties. Enfin, il présente les mouvements parallèles et les divergences entre les trajectoires d’inégalités entre pays.

    Il ne cache pas les lacunes des bases données permettant d’étudier les inégalités, mais il défend la robustesse et l’intérêt des résultats statistiques, citant Zvi Griliches : « Les statistiques économiques disponibles sont notre principale fenêtre donnant sur le comportement économique. Même si la vitre est rayée et le brouillard persistant, nous ne pouvons nous empêcher de regarder à travers pour tenter de comprendre ce qui se passe. » [4]

    Description des inégalités, de leur hétérogénéité

    Cette première partie se clôt par une description historique et internationale des inégalités. Atkinson retrace l’évolution bien connue : les inégalités diminuent de l’après Seconde Guerre mondiale jusqu’au début des années 1980, puis augmentent par la suite (sauf pour la France où elles n’ont commencé à remonter qu’à partir des années 2000). L’auteur cherche alors à mettre en parallèle les légères différences d’évolution entre pays avec les différences socio-politiques entre ces pays et met en lumière divers mécanismes : aussi bien économiques – comme le progrès technologique biaisé en faveur des plus qualifiés – qu’institutionnelles – comme le recul de la représentation syndicale. Si une partie de ce recul est expliquée par sa répression, notamment sous l’ère Thatcher au Royaume-Uni, il montre que la baisse tendancielle du taux de syndicalisation est un phénomène mondial, qui se poursuit. On aurait aimé plus d’explications sur cette baisse et ses implications, bien que le livre ne puisse être exhaustif.

    Pour les pays champions de la remontée des inégalités, les États-Unis et le Royaume-Uni, Anthony Atkinson note – sans pour autant négliger l’importance de la concentration des capitaux – que la croissance des inégalités concerne surtout les salaires. On sent toutefois qu’il cherche à ne pas entrer totalement dans le débat sur le patrimoine immobilier, qui nécessiterait à lui seul plusieurs livres. Pourtant, cette question est essentielle, tant une grande part de l’augmentation de la valeur des stocks de patrimoine [5] vient de l’immobilier, et non seulement de son volume mais de son prix. Ceci a de grandes influences sur la mesure et la dynamique des inégalités [6], aussi bien les inégalités de patrimoine que les inégalités de revenus, dès lors que l’on considère les services de son propre logement comme une forme de revenu en nature.

    Un programme de réforme presque complet

    Une défense générale de propositions précises

    Les deux parties suivantes s’engagent dans la recommandation de réformes (partie 2) et leur défense contre les critiques potentielles (partie 3). Malheureusement, cette séparation en deux parties n’est à pas à l’avantage de l’argumentation car les propositions sont multiples et précises mais les réponses générales. En fait, les réponses apportées ne concernent que deux grandes critiques habituellement adressées aux politiques redistributives de lutte contre les inégalités : 1) la redistribution réduit la taille du gâteau (c’est-à-dire le montant total des revenus d’une société), 2) ces propositions coûtent trop cher.

    Commençons par commenter ces deux réponses générales et leur limite. La réponse à la première critique se focalise sur la présentation d’arguments théoriques indiquant que le gâteau ne diminue pas forcément, pas toujours. Trouvant peu convaincants les arguments empiriques, Anthony Atkinson rejette l’idée de présenter des résultats d’analyses quantitatives, de chercher quels types de modifications des allocations de marché ou de redistributions peuvent être favorables à la production globale. Mais il ne suffit pas de dire qu’il existe des effets positifs pour contrer les critiques présentant des effets négatifs, encore faut-il montrer que les effets positifs dominent. L’argumentation peine donc à convaincre pleinement sur ce point. De plus, une réponse potentielle est oubliée, celle qui consiste à dire qu’un gâteau plus petit mieux partagé peut aussi être souhaitable, et ce d’autant que la manière de mesurer le gâteau – le PIB – est loin d’être exempte de tout reproche.

    La réponse à la seconde critique, sur le coût des réformes, est donnée à partir du modèle de micro-simulation fiscale Euromod, qui est accessible en ligne et permet aux chercheurs de réaliser des simulations des changements de taxation sur les revenus et comportements des ménages Atkinson montre ainsi qu’une réduction des inégalités par la redistribution n’entraînerait pas de coût supplémentaire. Mais les simulations de l’auteur se fondent sur l’hypothèse que les individus n’adapteraient pas leur comportement suite à la mise en place des réformes fiscales redistributives. Or, les critiques, aussi bien sur la question de la taille du gâteau que sur le côté négatif du coût des réformes, reposent bien sur les impacts de ces réformes sur les comportements des individus et des ménages. Un argument classique contre les mesures redistributives est en effet de dire que les entrepreneurs prendraient moins de risque si leur revenu était plus taxé.

    L’auteur est plus convaincant lorsqu’il évoque la possibilité de retirer des dépenses publiques pour financer les nouvelles dépenses en faveur de la redistribution. Effectivement, l’intervention publique actuelle comprend de nombreux dispositifs inefficaces voire contreproductifs et producteurs d’inégalités. La littérature croissante sur l’État providence pour les riches examine ces questions, comme par exemple le récent livre de Christopher Faricy ou les travaux que nous menons actuellement avec Bruno Palier et Michael Zemmour [7] sur la stratégie française de politique de l’emploi par la baisse des coûts du travail.

    Une grande réforme fiscale

    Pour revenir aux propositions, elles comprennent des points qui peuvent paraître peu novateurs vus de France, comme le relèvement ou le maintien d’un salaire minimum à des niveaux élevés ou la création d’un produit d’épargne liquide à taux réduit ressemblant fortement à notre livret A. Hormis ces propositions, la plupart concerne le système d’impôts et transferts. Du point de vue des transferts de revenus, il est proposé de renforcer l’impôt sur le revenu, de le faire commencer dès les plus bas niveaux et de le rendre plus progressif. Du point de vue des allocations, outre l’augmentation des allocations retraite et chômage, l’auteur propose de réfléchir à l’introduction d’un revenu de base, une allocation versée à tous sans condition.

    Toutefois, devant son coût très élevé, il propose de commencer par les enfants. Un tel revenu de base pour les enfants, versé aux parents, consisterait en une importante allocation familiale par enfant au montant indépendant du revenu ou du nombre de frères et sœurs. Il propose d’en fixer le montant au niveau du seuil de pauvreté, c’est à dire 0,3 fois 60% du revenu médian, ce qui correspondrait à un peu plus de 300 € mensuels en France [8]. Encore une fois, le changement ne serait pas extrême en France puisqu’une étude récente a montré que l’ensemble des prestations familiales françaises – en additionnant les allocations directes et les dispositifs sociaux-fiscaux - étaient très peu dépendant du niveau de revenu des parents (bien que bien plus dépendant de la composition familiale). Les couples avec au moins trois enfants et les familles monoparentales bénéficient de montants similaires par enfant quel que soit leur revenu. Toutefois, les couples avec un ou deux enfants ne bénéficient actuellement que d’environ la moitié de cette somme.

    Concernant le capital, il propose une fiscalité progressive sur les successions et transmissions consolidée sur l’ensemble de la vie : le taux d’imposition sur un héritage dépendant des sommes héritées précédemment. Cela permettrait de taxer de la même manière deux personnes héritant des mêmes sommes, l’une en une fois et l’autre à travers plusieurs héritages plus petits. De manière plus originale, il propose une allocation en capital, sous la forme d’une dotation au passage à l’âge adulte. Cette proposition s’inscrit fondamentalement dans une philosophie de libre-choix et d’égalité des chances. Si elle est louable, elle est clairement très coûteuse et son risque principal est qu’elle remplacerait au lieu d’accompagner les mesures s’attaquant aux inégalités effectives. Or, arrivé à l’âge adulte, il risque d’exister une forte inégalité de capacité à réellement profiter de cette dotation.

    Focalisation sur les transferts

    De ce point de vue d’ailleurs, on peut reprocher à l’ensemble des propositions de se focaliser sur les transferts au détriment des autres formes d’intervention publique, alors que l’auteur note que même une réforme fiscale plus drastique que celle qu’il propose serait insuffisante ne serait-ce qu’à ramener le GINI britannique (mesure d’indice des inégalités de revenu) à son niveau de 1960. Une proposition très générale avance que la politique de régulation de la concurrence doit s’intéresser aussi aux questions distributives, mais sans préciser vers quel but ni avec quels moyens.

    Pour ce qui est des investissements publics directs – ou du financement public direct de services qui pourraient être rendus par des entreprises ou associations dans le cadre d’un contrat de mission explicite – Anthony Atkinson cite un rapport sur l’investissement social sans rien en dire lui-même, hormis que c’est primordial. Pourtant, il avance également une proposition d’emploi garanti, forçant l’État à fournir un emploi public à tous les chômeurs (y compris des compléments publics d’emplois aux temps partiels subis). On peine à voir la cohérence entre cette proposition qui semble impliquer la création immédiate de nombreux emplois publics avec celle un peu plus loin de ne créer que petit à petit des emplois publics qui ne soient pas des petits boulots et remplissent de réelles missions d’intérêt public.

    Ce livre fournit donc un excellent point d’entrée dans les questionnements économiques sur les inégalités, autant qu’un bon moyen de faire le point pour les lecteurs déjà familiers de cette littérature. La première partie livre un panorama essentiel sur l’évolution des inégalités et les difficultés pour les comprendre et les mesurer. Les deux parties suivantes permettent d’engager la réflexion sur les politiques à mettre en place. Indéniablement stimulantes, elles comportent toutefois des limites – concernant autant les réponses aux critiques que la mise en place des réformes – et invitent donc à poursuivre la réflexion pour les faire passer de grands principes à des réformes pratiques et applicables, dont on anticipe précisément les impacts en termes de modification des comportements des ménages.

    [1] Chetty R., Hendren N., Kline P., Saez E., "Where is the land of Opportunity ? The Geography of Intergenerational Mobility in the United States". The Quarterly Journal of Economics 2014 Nov 1 ;129(4):1553-623.
    [2] Jusot F., Tubeuf S., Trannoy A., "Les différences d’état de santé en France : inégalités des chances ou reflet des comportements à risques ?", Économie et statistique. 2012 (455-456):37-51.
    [3] Boutchenik B., Coron C., Grobon S., Goffette C., Vallet L.A. Quantifier l’influence totale de la famille d’origine sur le devenir scolaire et professionnel des individus. Économie et statistique. 2015(477):5-23.
    [4] Griliches, Zvi. « Economic data issues », Handbook of econometrics 3 (1986) : 1465-1514.
    [5] Mesurée en proportion du revenu national par Thomas Piketty et Gabriel Zucman.
    [6] Voir notamment la recension de Guillaume Allègre et Xavier Timbeau ou mon article sur le sujet : Carbonnier, C., 2015. L’impact des prix de l’immobilier sur les inégalités et leur mesure. Revue économique, 66(6), p. 1029-1044.
    [7] Faricy Christopher, Welfare for the Wealthy : Parties, Social Spending, and Inequality in the United States. Cambridge University Press ; 2015.
    [8] Le seuil de pauvreté est estimé à 60 % du revenu médian et le coefficient de 0,3 correspond, dans l’échelle d’équivalence standard, au coût supplémentaire pour un ménage de comporter un enfant de moins de 14 ans supplémentaire.

    [retour ; haut de page]

    Refus de savoir, désir d'agir

    29 janvier 2016

    Les débats autour des déclarations de Manuel Valls sur la culture de l’excuse m'ont rappelé un moment particulièrement douloureux de ma formation. Je sais bien que beaucoup a été dit et écrit dernièrement (et sûrement mieux que je ne pourrais le faire) sur la nécessité de toujours chercher à comprendre et sur la distinction entre comprendre et excuser (je ne mets pas de lien, c'est partout). Je voudrais revenir sur un point qui me semble essentiel dans le débat : la relation entre la construction de la connaissance académique - forcément généralisante - et les contraintes de l'application du droit - forcément individualisées. Mais avant cela, permettez-moi un petit détour par ma première grande déception intellectuelle, qui est doublement d'actualité en ce début d'année.

    12 septembre 2001, première rencontre avec le refus de savoir

    Tout jeune étudiant rentrant de mon service militaire pour reprendre mes études dans une grande école française, j'ai été évidemment frappé par les attentats du 11 septembre 2001, que j'ai suivi, choqué comme tous mes camarades, dans la salle commune de mon logement universitaire. Comment un tel acte est-il possible ? Pourquoi faire ça ? Qu'est-ce qui peut mener des hommes à un si long et compliqué stratagème pour tuer le plus spectaculairement possible autant de monde tout en s'auto-détruisant individuellement ? Et toutes autres nombreuses questions d'un post-adolescent en quête d'intellectualisme.

    Heureusement, le lendemain, le mercredi 12 septembre[1], nous devions avoir notre premier cours de philosophie en amphi général. Or cet amphi, j'en attendais beaucoup, surtout en la circonstance. Tout le monde a son côté people et le fait que le professeur que nous allions avoir était célèbre attisait notre curiosité (sans parler du côté œdipien du fait que ma mère l'appréciait tout particulièrement). Mais surtout, cet homme était connu pour être un "philosophe de l'actualité", quelqu'un qui décortiquait les événements présents pour en éclairer notre compréhension. Pas de doute qu'il ferait son cours introductif sur les événements de la veille ; et effectivement, il le fit. Pas de doute non plus que ce serait très instructif ; et là je suis tombé de haut.

    Il attaqua d'entrée sur le principe qu'il ressassa ensuite pendant tout le reste du cours. Ce qui s'était passé la veille était l'acte de barbares qui dépassait toute possibilité de compréhension. Il ne fallait donc surtout pas chercher à comprendre, mais chercher à combattre - au sens militaire du terme et non au sens intellectuel puisqu'il n'y avait rien à comprendre - aux quatre coins du monde. Tout le cours ne fut rempli que de cela : de l'appel à la vengeance et la dénonciation comme traîtrise de toute tentative de compréhension. De là date pour moi une aversion particulière pour cet homme, qui a depuis fait beaucoup polémique sur ses positions réactionnaires et vient d'être intronisé à l'Académie Française.

    Confusion des missions

    Pour revenir à la question qui me préoccupe ici, il me semble qu'une raison principale de la peur du savoir académique (en sciences sociales, mais pas seulement) est la confusion entre les missions et les pratiques judiciaires et académiques. Pourtant, les fonctions du juge et du chercheur divergent fondamentalement. Le second cherche à comprendre des généralités, à mettre au jour des mécanismes, des tendances. Éventuellement, il peut les expliquer au juge pour aider celui-ci dans ses missions particulières, mais seul le juge décide si l'élément d'explication (car il s'agit le plus souvent d'éléments d'explication et non d'explication intégrale) constitue ou non une circonstance atténuante.

    Il serait obscurantiste de contraindre le chercheur dans sa quête d'éléments d'explication de peur que le juge considère éventuellement ces éléments comme des excuses. Si on souhaite influer dans la manière de raisonner des juges, il convient de le faire par la modification du code pénal - voire de la constitution - plutôt que directement en modifiant les résultats de la recherche scientifique. Plutôt que de nier le droit à la compréhension des mécanismes sociaux, il est probablement moins néfaste et plus transparent de tenter de légiférer sur ce qui doit ou non être considéré judiciairement comme une circonstance atténuante.

    On trouve des illustrations de ces réticences envers la recherche du fait de la peur de ne pas maîtriser ses conséquences judiciaires y compris hors des sciences sociales, et en particulier dans la médecine. C'est le cas par exemple de la recherche sur le syndrome d'alcoolisation fœtale, fort développée outre-Atlantique et qui peine à trouver ses financements en France. Certes, les guerres budgétaires entre ministères n'y sont pas étrangères (les coûts d'éventuelles nouvelles prises en charge retomberaient sur les affaires sociales quand les économies seraient pour l'éducation et la justice, mais les décisions de financement de recherche incombent en l'occurrence principalement aux affaires sociales). Mais surtout, une réticence toute particulière à ces études provient de la peur que les résultats puissent être interprétés pour être utilisés judiciairement comme arguments en faveur de l'absence de responsabilité de prévenus. Or, on met un point d'honneur à afficher qu'on se refuse à juger des irresponsables, et plutôt que d'afficher qu'on souhaite pondérer voire atténuer ce principe (ou simplement qu'on pense qu'il ne s'applique pas en l'occurrence), on préfère fermer les yeux sur les études médicales, et les limiter si l'on peut.

    Problème spécifique aux sciences sociales

    En plus de cette peur, les sciences sociales sont sujettes à un problème supplémentaire qui rend encore plus difficile leur interaction avec le judiciaire. En effet, les grands résultats de sciences sociales sont souvent des effets parmi d'autres, des tendances, bref des éléments de compréhension générale et non des compréhensions totales particulières. Quand je mets en évidence l'impact du quotient conjugal sur la participation des femmes mariées au marché du travail, c'est bien un résultat robuste et causal que j'obtiens. Pour autant, cela ne veut pas dire que le quotient conjugal explique la totalité des différences de taux de participation des femmes entre pays, loin de là, il existe de nombreux autres déterminants sociaux, culturels, liés au marché du travail lui-même ou à d'autres politiques publiques. Surtout, même si on pouvait lister tous les critères d'influence, il resterait des inobservables individuels : on peut estimer les influences moyennes de certains paramètres sur les décisions de groupes d'individus mais cela ne permet aucunement de déduire avec certitude que telle femme particulière travaille ou non du fait de telle cause particulière.

    Or le juge ne s'intéresse pas aux tendances générales, aux impacts causaux moyens de phénomènes sociaux sur les individus. Il s'intéresse à un cas précis, unique. Pour autant, les principes de notre justice lui demandent de prendre en compte les éléments de contexte, c'est à dire de se faire une idée sur la réalisation effective sur le sujet qu'il doit juger de ces influences mises en évidence par les sciences sociales. C'est une mission extrêmement difficile, et il est probable qu'il se trompe souvent, voire qu'il y renonce parfois. Mais quoi qu'il en soit, cette application à un cas individuel reste le problème du juge et non du chercheur. Ce dernier peut évidemment l'aider en lui expliquant au mieux les éléments de compréhension que la littérature scientifique a mis au jour. Il le fera d'ailleurs d'autant mieux qu'il restera dans son rôle et surtout qu'il ne sur-interprétera pas ses résultats. Mais le chercheur ne doit en aucun cas internaliser les problèmes d'applications pratiques en limitant sa recherche d'éléments de compréhension.

    Refuser toute critique du comportement de la victime

    Plus particulièrement concernant les phénomènes de crimes contre la société, et en particulier les attentats massifs, les résultats des analyses de sciences sociales sont parfois mal reçus car ils critiquent la société elle-même, c'est à dire la victime. Beaucoup d'analyses montrent en effet comment notre organisation renforce la probabilité de passage à l'acte. Ces analyses sont mal perçues pour deux raisons : la crainte de l'excuse de l'agresseur et le refus de remise en cause. Premièrement, elles sont considérées comme dédouanant l'agresseur en présentant des critiques du comportement de l'agressé (ou en proposant des comportements de protection plus efficaces, ce qui d'une certaine manière peut être perçu comme une critique). Or, critiquer le comportement de la victime ne revient absolument pas à dire que la victime est co-responsable. Quand bien même le serait-elle, cela ne signifierait pas qu'il y ait circonstance atténuante pour l'agresseur, car la responsabilité ne diminue pas forcément quand on la partage : la responsabilité c'est comme l'amour pour les enfants, ça se partage sans nécessairement que les parts soient plus petites que le tout.

    Prenons des exemples simples : si je pique régulièrement mon voisin de comptoir avec une petite épingle à nourrice et qu'il me retourne une droite qui me casse le nez, le juge pourra (je ne sais pas s'il le fera, je ne suis pas assez au fait du code pénal) donner des circonstances atténuantes à mon agresseur. En revanche, si je laisse ma porte ouverte et qu'on me cambriole, le fait que ma porte n'était pas fermée n'exonère en rien le cambrioleur. Pour autant, on pourra me dire que j'ai été bien con de la laisser ouverte (mon assureur en particulier me le fera bien sentir). Ensuite, on peut chercher à construire un monde où je n'aurai plus besoin de fermer ma porte. En attendant qu'il se réalise - même s'il n'est pas forcément si utopique que certains le pensent - je continuerai à donner un tour de clef et ce n'est en rien excuser les cambrioleurs que de recommander à tous d'en faire autant.

    Le problème avec la responsabilité sociale, c'est que c'est encore bien plus complexe de démêler ce qui est de la bonne prévention sans partage de responsabilité, du partage de responsabilité avec parts complètes de responsabilité ou du partage de responsabilité créant circonstance atténuante (pour toutes les raisons présentées plus haut). Mais quoi qu'il en soit, il est primordial de continuer à chercher des éléments de compréhension, ne serait-ce que pour tenter d'apporter les réponses les plus efficaces. Ce n'est pas toujours en frappant plus fort qu'on règle les problèmes. Il convient en fait de savoir ce que l'on cherche : à se venger (quitte quelques fois à souffrir plus soi-même pour pouvoir accomplir sa vengeance) ou à se protéger (quitte dans certains cas à ne pas accomplir pleinement sa vengeance).

    Chercher à comprendre, toujours

    Enfin, un dernier point, est celui du rassemblement autour d'une cause. Une maxime célèbre sur l'armée est que réfléchir c'est déjà désobéir. Si on veut amener un peuple à la guerre, il importe de lui faire haïr son adversaire et le déshumaniser au maximum. Si le combattant voit son ennemi comme un homme, il sera un peu plus réticent à lui tirer dessus. On retrouve cela dans nombre de romans sur la guerre, en particulier la première guerre mondiale, de Giono à Remarque, en passant par Céline. Mais historiquement, la guerre n'a pas toujours réglé les problèmes, et cette première guerre mondiale en est un bon exemple.

    Tout ça pour dire qu'il faut continuer à chercher à comprendre, tout le temps, toujours, et explorer sans cesse plus avant les éléments de compréhension. D'abord parce que l'homme est un animal qui a cela de beau de toujours chercher à comprendre, même quand c'est inutile. Ensuite parce que souvent, en fait, cela s'avère utile. Il faut surtout éviter de déshumaniser l'ennemi et de penser que toute action qu'on ne comprend pas instinctivement est une pure idiotie venue de nulle part et pratiquée sans aucune influence extérieure. Sans aller jusqu'à penser que toutes les actions sont toujours rationnelles, il est important de chercher des éléments de compréhension des mécanismes qui les ont amenées à être exécutées.

    [1] En fait, je ne suis plus vraiment sûr que c'était le lendemain, c'est ce qui me reste en mémoire mais peut-être cette si courte succession temporelle est-elle une reconstitution mythique des événements que je me suis forgée depuis. Toujours est-il que ce premier cours a eu lieu très peu de temps après les attentats, et qu'aussi bien mes attentes que le contenu du cours étaient tels que décrits.

    [retour ; haut de page]

    La crise des subprimes 101

    12 janvier 2016

    Après Margin call il y a quelques années, l'occasion nous est donné de voir un nouveau très bon film sur le monde de la finance et la crise des subprimes, à savoir The big short. Si le premier était un huis-clos sur les us et coutumes d'une banque en période de crise, le second se veut beaucoup plus général et didactique. Il est tiré du livre du même nom qui est une enquête sur des traders qui ont su anticiper l’éclatement de la bulle immobilière. Les styles sont également totalement opposés : lent et intimiste pour le premier, avec un accent particulier sur les dilemmes (a)moraux des personnages ; rapide et show off pour le second, avec des scènes de fiction entrecoupées de cours de mise à niveau technique (même si certaines ficelles peuvent paraître trop grosse au début, on finit par se laisser entraîner dans le rythme). Pour ceux qui ne veulent pas aller voir ce film mais veulent mieux comprendre la crise comme pour ceux qui en reviennent et veulent quelques clarifications, je propose une petite histoire rapide de la crise des subprimes. Cela peut aussi tenter ceux qui comptent aller voir le film et veulent être au point pour être sûr de bien suivre. Que ceux-ci se rassurent, il n'y a rien à spoiler dans ce film. The big short, c'est comme Titanic, tout le monde connait la fin avant d’aller le voir : le Special Purpose Vehicle coule à la fin.

    1. Que sont ces titres financiers dont il est question ?

    Reprenons au début : les crédits immobiliers, c'est pas l'fun : peu de risque donc peu de profits. Les gens paient leur crédit. Au pire (mais vraiment rarement) certains finissent par ne plus payer : on leur reprend leur maison qu'on vend à un prix qui couvre les frais plus le crédit (et vraiment au pire du pire il reste quelques frais mais c'est vraiment peanuts). Le boulot est simple : on trouve un gus qui veut une maison, on lui prête un demi-million, il rembourse un demi-million plus de menus intérêts, ce n’est pas folichon et surtout il faut beaucoup de fonds pour obtenir peu de bénéfices. En général, quand on ne peut pas faire beaucoup de marge mais que la marge est sûre, le but est de faire beaucoup de volume. Pour faire beaucoup de volume avec des crédits immobiliers, il faut avoir énormément de fonds à placer. C'est là qu'intervient une première innovation : la titrisation.

    Titrisation du crédit immobilier, le MBS

    Petit aparté : on va avoir un problème de vocabulaire ici alors pour ne pas s’emmêler disons qu’on « place » un crédit quand on trouve un gary à qui prêter de l’oseille pour qu’il s’achète une turne. Et disons qu’on « vend » un crédit quand on trouve un gary prêt à investir pour acheter le titre de dette du gary emprunteur. De fait, celui à qui on a « vendu » le crédit est le réel préteur des sous qui ont permis de financer la piaule de celui auprès de qui on a « placé » le crédit. Nous, on n'est qu’intermédiaires et on touche juste une commission. Le mécanisme général est qu'on place plein de crédits qu'on revend aussitôt, ce qui permet d’en refourguer d’autres parce qu'on a toujours des fonds à prêter (issus de la vente des premiers crédits).

    Pour pouvoir écouler tous les crédits qu'on a placés, il faut un gros porte-monnaie : les marchés financiers. Mais il faut dans ce cas markéter le produit pour qu’il convienne, et on en profite pour mutualiser le risque de défaut. Un crédit, c’est pas sexy, on l'a déjà dit, et surtout ce n'est pas formaté pour les marchés financiers. C’est peu risqué, mais quand même un petit peu. Alors au lieu de vendre à un gus un crédit immobilier avec une chance sur mille de perdre un peu de sous en frais de liquidation, de saisie, etc… on lui vend un dix-millième de dix mille crédits immobiliers. Ces produits financiers qu'on vend sont les MBS pour Mortgage Based Security, soit littéralement « titre adossé à une hypothèque ». Avec la loi des grands nombre, on dit que c’est sûr (10 des dix milles prêts vont perdre un peu d’argent, qui sera couvert par les 9 990 qui auront tous payé). Et donc le rendement est assuré.

    Là, on fait notre première erreur, on oublie la corrélation : la loi des grands nombres 1] ne peut être appliquée que si les risques sont indépendants les uns des autres, sinon on ne mutualise que tchi. On comprend bien que si chacun risque de ne plus pouvoir payer son crédit de manière tout à fait indépendante (la maladie, la mauvaise fortune, le chômage, etc. frappent aveuglément et indépendamment les emprunteurs), le calcul de la mutualisation marchera : tous les ans, une petite proportion d'emprunteurs fera défaut. En revanche, si les risques sont corrélés (effondrement du marché immobilier, augmentation du taux moyen de chômage, épidémie, etc.) avec une très forte probabilité personne ne fera défaut et avec une très faible probabilité tout le monde fera défaut. Le risque n'a pas été mutualisé du tout, il est toujours aussi présent. Pire, comme on le verra plus loin, la partie corrélée du risque peut même être augmentée par le phénomène de croire (à tort) que le risque a disparu.

    Des MBS aux CDO

    Ensuite, pour fluidifier encore plus le marché, on peut créer des sociétés ad hoc (potentiellement filiales à 100% de grandes banques qui peuvent du coup apporter beaucoup de fonds, cela s’appelle un SPV pour special purpose vehicle) qui achètent les MBS et qui vendent sur les marchés financiers des obligations (des titres de dette sur elles-mêmes, adossés cette fois-ci sur les MBS). Cela permet de rassurer encore plus les investisseurs qui achètent une obligation à une filiale d’une banque et non directement les MBS. Un individu peu crédible va voir une banque et lui demande de l’argent via un crédit bancaire, une entreprise très crédible va voir les marchés financiers et leur demande directement de l’argent contre une promesse de remboursement : on appelle cette promesse de remboursement une obligation. Les titres de dette de ces filiales ad hoc s’appellent des CDO (collateralized debt obligation) car il s'agit d'obligations émises par une société qui compte les rembourser grâce à l’argent reçu des MBS (et qui gage directement la dette sur les MBS).

    Ensuite, on peut broder. On vend les premières mensualités du remboursement de crédit dans un produit (vraiment ultra ultra sûr – AAA – mais qui du coup ne paie quasiment zéro intérêt : c’est l’assurance de placer son argent à zéro risque) et on vend les derniers mois dans un autre (un peu plus risqué, genre A ou BBB). On peut aussi varier les types de crédits : les crédits à des fonctionnaires qui achètent un appart' intra-muros (faible risque de défaut et très faible risque que la valeur de l’hypothèque ne baisse) sont AAA, les crédits à un commerçant de Saint-Go pour une maison à Payssous sont A ou BBB, voire B pour les dernières mensualités.

    Se surajoute à ça le fait que des gens peuvent prendre des paris sur le résultat d’un CDO. Cela ne fait que se surajouter : c’est ce qu’on appelle les CDO synthétiques. Dans le film, c'est Richard Thaler qui explique le principe général de ces produits qui peuvent générer d'importants effets de levier. Cela démultiplie l'argent en jeu car on n'a plus besoin de construire des maisons et de faire des crédits immobiliers pour placer l'argent, on fait des simplement des paris. Toutefois, si c'est un anti-vecteur de stabilité globale des marchés, qui rend encore plus explosif l'effet d'un crash, ce n'est pas une cause de la bulle et de son explosion mais une conséquence amplificatrice.

    2. Quel est le contexte qui nous amène à la crise ?

    Ce système existait depuis longtemps, mais il a pris un nouveau tournant après la crise de 2000 liée à l'éclatement de la bulle internet. Deux phénomènes se sont jumelés. En général, quand les marchés financiers déraillent, les gens cherchent à placer leur argent dans du sûr. Ils reprennent leurs billes des entreprises « risquées » et placent dans les bons du trésor, dans l’or et dans l’immobilier. Par ailleurs, pour limiter les difficultés des entreprises à se financer malgré ce reflux de placements, les banques centrales essaient de balancer suffisamment de liquidités dans le système (à travers des taux d’intérêts bas, voir en injectant directement de l'argent dans l'économie, par hélicoptère) si nécessaire. En l’occurrence, la Fed (la banque centrale américaine) a inondé le marché interbancaire avec des taux d’intérêts directeurs très proches de zéro. Du coup plein de flouze à placer, des taux d’intérêts au plancher et un attrait particulier pour les placements immobiliers… beau temps pour les MBS et les CDO.

    Des ‘primes’ aux ‘subprimes’

    On pouvait « vendre » plein crédits, il a donc fallu trouver à en « placer » suffisamment (produire des titres) pour pouvoir les vendre. Alors on est descendu. Les filiales ad hoc demandaient plus de MBS pour fourguer plus de CDO, du coup les banques locales essayaient d’augmenter leur nombre de crédits immobiliers pour pouvoir vendre plus de MBS. On a demandé aux courtiers en crédit de ne pas être trop regardants. Les fonctionnaires et leurs appartements parisiens sont ‘prime’. Les commerçants de Saint-Go et leur maison à Payssous sont un légèrement ‘subprime’. Mais comme on a besoin de plus de production de MBS, on prête à l’immigré en intérim et à la stripteaseuse pour acheter des maisons dans des banlieues pavillonnaires hyper loin de tout au fin fond de la Floride (ou du nord de l'Etat de New-York…) : c’est carrément ‘subsubprime’. C’est là que dans le film entrent en scène les deux crétins floridiens et le fameux moment où Mark Baum demande à parler en privé à ses collaborateurs :

    « - Mais pourquoi ils avouent comme ça ?

    - Ils n’avouent pas, ils se vantent ! »

    Il faut placer du crédit et de toutes façons pas de risques, l’immobilier ça paye toujours. Tout le monde est d’accord, les promoteurs immobilier, les agents immobilier, les gens qui peuvent s’acheter des maisons… Au pire, quand t’as ta maison, t’en achètes une autre pour louer. Tu rembourses avec le loyer, pas besoin d’apport et tu auras ta retraite dans la pierre quand tu pourras plus faire stripteaseuse. On prête à tout le monde, n’importe comment, pour n’importe quoi, de toute façon, l’immobilier, c’est sûr !

    La stripteaseuse emprunte parce qu’elle peut, parce qu’on lui dit que ses cinq maisons vaudront toujours plus que les crédits et parce qu’on lui dit qu'elle trouvera toujours des locataires (ça n’existe pas de ne pas trouver de locataires) pour payer les loyers qui paient les mensualités. Les courtiers placent parce qu’on leur demande de placer. Les banques locales placent et revendent les MBS parce que l’immobilier, c’est sûr ! Les banques nationales via les SPV achètent les MBS et vendent les CDO parce que l’immobilier, c’est sûr ! Les investisseurs achètent les CDO (et les CDO synthétiques) parce que l’immobilier, c’est sûr ! Et puis tout se passe sans que personne n’aille voir dans les notices présentant quels crédits sont dans les MBS dans les CDO. Quant à savoir la valeur des maisons sur lesquelles sont adossées les crédits, c’est encore une autre question.

    D’une bulle financière à une bulle immobilière

    Le problème est qu’avec cet emballement, on a construit plus que les gens peuvent se payer et habiter, et on a prêté des montant pour des maisons surévaluées. Un courtier vient et te dit : « là y'a une maison qui coûte 500 000 $, je te prête 500 000 $, tu me rembourses avec les loyers et on finit tous riches ». Le courtier n'est pas regardant sur ta situation, et tu n'es pas très regardant sur la maison et son prix. Et globalement, cela fait monter la demande de maisons, dont l'offre réagit lentement, donc cela fait monter les prix. Mais ce n'est pas pour autant que cela reflète le réel besoin de logements ou la réelle capacité des locataires à payer des loyers. Il en résulte que les projets immobiliers finissent par ne plus trouver de locataires, ce qui amène certains emprunteurs à ne plus pouvoir rembourser.

    De plus, pour mieux placer les crédits, on a fait comme tout bon commercial : des prix d’appels. De même que Bouygues, Free, Numéricable-SFR et Orange vous disent pour votre internet « les 6 premiers mois à 15,99 € et ensuite à 34,99 € », on a prêté à taux variable avec un taux d'appel à disons 3 % les deux premières années puis le taux interbancaire plus 3 % après ça (ces chiffres sont purement fictifs mais l'idée est là). 3% au-dessus du taux interbancaire, c’est énorme comme spread pour un crédit immobilier, mais on commençait à prêter à des gens non solvables qui n’avaient pas accès aux prêts normaux, donc quand on a leur a dit « tu t’achètes une maison gratos, plus une pour louer et je te prête le tout pour 3 % les deux premières années puis les taux interbancaire plus 3 % après ça », ils ont dit banco. Le problème est que la surchauffe a commencé à se faire sentir. Le banquier central a alors dit, « oh, les gars, on se calme, je remonte le taux directeur de 1 % mi 2004 à 5,25 % mi 2006 (à coup de 0,25 % tous les mois ou deux) ». Cela a conduit les taux interbancaires de 1,3 % à 5,8 % sur la même période. Là-dessus, l'emprunteur qui arrive à la fin de ses deux années à 3 % se retrouve mi 2006 à devoir rembourser à 8,8 %. L’augmentation est faramineuse, pour un prêt de 500 000 $, ça fait passer les intérêts mensuels de 1250 $ à 3666 $ et il ne peut plus rembourser (surtout s’il n’a pas trouvé de locataire).

    Et là, c’est l’emballement, et l’éclatement de la bulle immobilière qui fait éclater la bulle financière qui avait généré la bulle immobilière. Les défauts se multiplient, et donc se multiplient aussi les saisies, et les ventes. Or, tout le monde a déjà sa maison (dont le prix est surévalué) alors qu’on se met à vendre à tire-larigot. Les prix immobiliers s’effondrent donc rapidement et les reventes ne permettent pas de rembourser les crédits. Non seulement le taux de défaut est plus important que prévu, mais les pertes par défaut sont aussi plus hautes que prévues parce qu’on ne peut plus rembourser les crédits par les ventes des maisons. Tout se casse la gueule car le risque corrélé a connu sa mauvaise réalisation.

    A tout ça se surajoute le fait que des gens solvables se mettent à faire volontairement défaut : un gonze a acheté une maison 500 000 $, emprunté 500 000 $, habité la maison et loué icelle, remboursé 50 000 $, réemprunté les 50 000 $ sur l’hypothèque de la maison pour s’acheter une voiture plus 50 000 $ de plus pour des vacances à Ibiza parce que sa maison avait pris 10 % et qu’il pouvait emprunter 50 000 $ de plus sur son hypothèque qui valait 550 000 $ après la hausse de valeur de marché de sa maison. Et là, bam, c’est la crise ! Sa maison ne vaut plus que 350 000 $. Non seulement son banquier lui demande de rembourser 200 000 $ (mais bon, il pourrait essayer de négocier) mais surtout il lit le contrat qu’il n’avait jamais lu et il s’aperçoit qu’effectivement on peut lui demander le remboursement immédiat de tout ce qui dépasse la valeur de sa maison (ce qui ne devait jamais arriver parce que l’immobilier, c’est sûr !) mais surtout il voit qu’il peut écrire une lettre à son banquier lui disant que la maison appartient désormais à la banque et qu’il ne lui doit plus rien. En attendant qu’on vienne l’expulser pour ne pas arriver ensuite à vendre sa maison, il vit là gratos (ou il continue à louer et à encaisser les loyers sans payer ses mensualités), puis il ira se reloger ailleurs (ou son locataire ira essayer de se reloger ailleurs s’il le peut), c’est tout bénéf en attendant.

    Ce qui ne veut pas dire que des braves gens ne sont pas lésés, au contraire. Le locataire du mec précédent est mis à la rue, et pour peu qu’il bosse dans le BTP qui licencie à tout va, ce n’est pas demain la veille qu’il retrouvera une maison. Les immigrés qui croyaient avoir trouvé le rêve américain sont aussi expulsés de là où ils croyaient être propriétaires, et vu que c’est la crise, ils vont avoir du mal à retrouver un boulot et un logement. Des tas de gens sont à la rue pendant que des milliers et des milliers de maisons sont abandonnées, invendues, inhabitées.

    A l’été 2006, j’avais fait un petit road trip par là-bas (Upstate NY, PA, OH, WV, VA, KY, TN, AR, TX) et avait été choqué par le nombre de banlieues pavillonnaires qui semblaient abandonnées. Plus d’une maison sur deux n’avait plus d’occupant, et voyait son panneau « for sale » planté dans le jardin se délabrer avec le temps. Ce n’est que bien plus tard que j’ai compris ce que j’avais vu.

    3. Venons-en au big shot, la grosse vente à découvert

    Le film retrace l’histoire à cette époque de quatre personnes ou groupes de personnes : un gérant de fonds de placement Californien (Michael Burry - alias Christian Bale - un borgne en bermuda et tongs atteint du syndrome d’Asperger) ; un trader de la Deutsche Bank (Jared Vennett - alias Ryan Gosling - dans le film, Greg Lippman dans la réalité) ; une équipe de placement liée à Morgan Stanley (dirigée par Mark Baum - alias Steve Carell - dans le film, Steve Eisman dans la réalité) et deux boursicoteur amateurs aidés par un trader repenti (Ben Rickert - Brad Pitt - dans le film, Ben Hockett dans la réalité).

    Le borgne en bermuda

    Le borgne, il est Aspeger, donc il n’agit pas comme les autres. Et en particulier, il lit les notices des CDO qu’il achète (un ouf, le type, il lit !). En 2005, il se dit : « wow c’t’affaire ! ces osties d’criss de CDO sont pas solides pantoute ! Tout ça va s’écrouler en tabarouette ! ». Rapport à tout ce qui est écrit plus haut, et qu’il avait donc compris. Lui, il est Asperger (je sais, je me répète mais c’est malgré tout assez central, autant pour sa manière de penser le trading que pour ses motivations morales), donc le truc que tout le monde prend pour évident « l’immobilier, c’est sûr ! », il ne peut pas le prendre pour argent comptant, sans vérifier. Et quand il vérifie, il se dit que ça va chier (d’autant qu’il voit bien que les taux directeurs remontent et que les crédits sont en masse à taux variables avec période de promo - ce qu'il répète à plusieurs reprise dans le film). Il se dit alors qu’il faut parier contre. Pas méchamment parce qu’il souhaite que tout s’écroule. Pas par fraude pour s’enrichir pendant que tout s’écroule. Simplement parce que son métier c’est de placer, que quand ça va s’écrouler il vaut mieux placer contre que pour (les notions de bien et de mal ne le touchent pas trop, il a juste raison et les autres ont tort).

    Mais là, comment faire ? La base du « parier contre », c’est la vente à découvert : je te vends aujourd’hui à prix fort un titre que je n’ai pas, et je te le livrerai effectivement le jour où il aura baissé. Tel que fait par certains sites en ligne de vente de primeurs du bordelais, c’est illégal. Mais ce que je peux faire, c’est te vendre un titre qui paie tout comme un autre. Par exemple, je veux shorter Airbus : je te vends un contrat qui dit que chaque fois qu’Airbus donnera 1 € de dividende, je te filerai 1 €. Si t’es d’accord, il n’y a rien d’illégal. Le problème est que si je suis monsieur toulemonde, tu te diras que je peux faire faillite facilement et que ça ne vaut pas le coup, et tu ne m’achèteras pas ce titre. En revanche, si je suis un trader d’une grande banque (qui ne fera sûrement pas faillite d’autant qu’au pire l’Etat la renflouerait), tu seras prêt à m’acheter ce contrat quasi au prix de l’action airbus (un peu moins cher quand même car : i. le risque de faillite n’est pas totalement nul et ii. ce contrat ne donne pas de droit de vote au CA d’Airbus). Bon, là, vu que tout le monde croit dur comme faire dans les CDO et qu’un fond de placement californien, c’est très loin du risque nul de défaut, ce n’est pas jouable comme tactique.

    Du coup, le borgne en bermuda emploie une deuxième tactique. Il va voir une banque et lui demande de l’assurer contre le risque de perte sur les CDO. En gros, si tel CDO rapporte moins que prévu, la banque lui rembourse le dommage, c'est-à-dire la différence. En échange, comme tout contrat d’assurance, il doit payer régulièrement une prime d’assurance. Il doit trouver régulièrement de l’argent pour payer la banque, à défaut de quoi son contrat d’assurance est caduc, ce qui explique que si ses clients se retiraient (ce qu’ils menacent de faire quand ils apprennent qu’il a parié tout leur fric sur une chute de l’immobilier, alors que tout le monde le sait, l’immobilier, c’est sûr !), il ne pourrait plus payer le contrat d’assurance et perdrait tout. Ce type de contrat s’appelle un CDS pour « Credit Default Swap ». Une différence notable avec un contrat d’assurance classique, est qu’il n’a pas besoin de subir lui-même le dommage (il n’a pas à posséder des CDO), il lui suffit de prendre un contrat sur le défaut des CDO, et il peut prendre autant de contrat qu’il le souhaite sur le même CDO.

    Prenons un exemple simple de chiffres fictifs pour illustrer cela : un CDO doit rapporter un million de dollars par an pendant cinq ans, et supposons que le risque de faillite du SPV est de un pour mille par an (et pour simplifier les calculs supposons que le taux d’intérêt est de 0 % comme ça on n’a pas à s’embêter avec des questions d’actualisation). Il prend le contrat sur cinq ans. Au départ il paie pour la première année, 1 pour mille que ça plante (et qu’il perde 1 M$) ça coûte 1000 $ de prime de risque plus des frais de dossier. La seconde année, même montant de 1000 $ plus les frais de dossier, 1000 $ la troisième, 1000 $ la quatrième et 1000 $ la dernière. La banque veut se faire une bonne marge donc elle dit : « ok, je t’assure à 10 000 $ la première année, 10 000 $ la seconde, etc. » Ce sont certes des énormes frais de dossiers, d’où le fait que les banquiers se fendent la poire, d’autant que l’immobilier, c’est sûr ! Lui se dit : « les CDO c’est de la merde, donc banco, enwoye pour 1,5 milliards la première année », soit 150 000 CDS sur le CDO susmentionné. La banque vient de signer qu’elle prend illico 1,5 Mds$, et encore 1,5 Mds$ l’année suivante si le fonds du borgne n’a pas coulé d’ici là (ce qui est peu probable), et encore 1,5 Mds$ l’année suivante, etc.

    Une conséquence est que la seconde année, le borgne doit vendre tout ce qu’il lui reste en autres types de produits pour payer les 1,5 Mds$ de la seconde échéance (et les CDO auraient tenu un an de plus, il aurait coulé, n’aurait pas pu payer les 1,5 Mds$ de l’année suivante et le contrat d’assurance aurait été rompu). Mais les CDO sont sub-claquants et s’ils meurent définitivement, la banque lui doit 1 M$ x 150 000 CDS soit 150 Mds$ pour la seconde année, autant la troisième (après qu’il aura dûment payé sa cotisation à 1,5 Mds$ grâce aux 150 Mds$ de l’année précédente, 150 Mds$ la quatrième année et autant la cinquième). La banque comprends alors que le risque de crash des CDO est très important, et elle dit : « bon ok, négocions le prix pour que je te rachète tes contrats d’assurance ». Tant qu’elle espérait que les assurés coulent avant les CDO, elle se disait « on continue » (d’où les engueulades sur le fait que les prix sont mal fixés, que les défauts explosent mais que les prix des CDO restent si hauts et des CDS si bas, d’autant que les agences de notation, dont les principaux clients sont les banques vendant les CDO, continuent de les noter AAA). Mais maintenant que c’est très probable que les CDO vont couler, il faut essayer de se sauver un peu.

    La banque le rappelle donc et lui propose : « écoute gentil petit borgne en bermuda, pitêt en fait que les CDO vont pas couler et que tu ne toucheras rien. Ou pitêt que moi banque qui t’assure je vais couler et du coup tu ne toucheras rien non plus. Donc je te propose que je te paie 15 Mds$ là tout de suite pour te racheter tous tes CDS et on n’en parle plus. » Et lui, qui a quand même le couteau sous la gorge avec tous ses clients qui lui font des procès pour récupérer leur fric, il dit « OK », il récupère 15 Mds$ après avoir placé en tout 3 Mds$, il paie 500% de rentabilité à ses clients et ferme son fonds (après avoir touché une bonne com’).

    Mark Baum

    Mark Baum, lui, n’a pas le couteau sous la gorge (ou moins bien aiguisé) donc il n’est pas obligé d’accepter. Et un paiement cash de 15 Mds$ pour éviter quatre paiements de 150 Mds$, il trouve que les banques s’en tirent vraiment trop à bon compte. Donc il dit « non merci pour votre proposition de rachat, je préfère garder mon assurance et la faire valoir quand il sera temps ». Si on le voit comme un mec droit à principes, il veut faire payer les banques plus de 15 Mds$ quitte à ce qu’elles crèvent et qu’il n’ait rien. Si on le voit comme un peu plus cynique, on peut dire qu’il fait monter les enchères. La réalité est probablement entre les deux et il finit par céder à un prix clairement bien plus élevé que les 15 Mds$ du borgne.

    Les deux blaireaux du MidWest

    Les deux gus, ce sont des spéculateurs amateurs, qui ont utilisé une technique liée aux biais cognitifs mis au jour par Kahneman et Tversky. Pour résumer, les gens ont une aversion aux pertes bien supérieure à leur aversion au risque en général. Pour comprendre les implications sur la techniques des blaireaux du MidWest, imaginons un titre pourri qui devait payer 10 000 $ mais a 90 % de chances de faire défaut. En fait, ce titre devrait valoir 1000 $ moins une prime de risque (disons 200 $). Mais les fonds ou banques qui le possèdent n’aiment pas du tout avoir un titre aussi junk à leur bilan, cela fait sale. Ils sont donc prêts à s’en débarrasser pour rien juste pour assainir leur bilan (ils réalisent tout de suite la perte et retrouvent un bilan joli qui permet d’attirer les investisseurs même s’ils ont essuyé une perte l’année précédente). Ils liquident alors ces titre, disons à 100 $ chaque (au lieu de 800 $). Les deux amateurs recherchent ce genre de titres tous pourris. Ils scrutent des titres devant payer 10 000 $ et coutant 100 $ en se disant que si c’est aussi clair que ce sont des junk bonds, leur valeur doit probablement être sous-évaluée et que la probabilité de défaut est sûrement bien inférieure aux 99 % que leur prix semblerait indiquer (en l’occurrence 90 %). Ils achètent donc ces titres hyper pas cher. Neuf fois sur dix ils pomment 100 $, une fois sur dix ils gagnent 10 000 $. En moyenne, ils sont hyper gagnants. C’est ça qui leur permet de passer en quelques années de 100 000 $ de mise initiale à 30 M$.

    De là, ils essaient de passer pro et de monter un fonds, de se trouver une banque ou un gros client pour se lancer à grande échelle. Ils voudraient aussi pouvoir trader des produits dérivés et pas juste des actions. Mais pour ça, il faut être membre de l’international swap and derivative association (ISDA) qui est la principale association qui labélise les contrats de produits dérivés. Cela n’est possible que si on est backé par une banque, mais celles-ci n’accèptent pas pour un fonds aussi ridicule que 30 M$. Pourquoi leur copain les aide ? C’est sûrement un des points les obscurs du film. Parce que c’est leur voisin et qu’il a l’air de bien les aimer, qu’ils font un truc qui va dans le sens de montrer que le monde qu’il a quitté est rempli de cons ? Quoi qu’il en soit, j’aime beaucoup la scène où il leur demande d’arrêter de danser en sortant du congrès des cons titrisants. Les jeunes sentent qu’ils ont fait une super affaire et qu’ils vont s’enrichir, il leur dit de rester un peu dignes, car s’ils deviennent effectivement riches, ça voudra dire que des tas de ménages auront perdu leur emploi et leur maison.

    Les banques ont-elles fait exprès de berner leurs clients ?

    Dans le film, les banques sont tellement sûres que l’immobilier ne s’effondrera jamais qu’elles ont juste vu un fou venir leur filer 1,5 Mds$ gratos (et peut-être plus s’il survit). C’est d’ailleurs les questions que se posent Mark Baum, et la raison pour laquelle il a du mal à y croire au début. Mais il va sur le terrain regarder les maisons. Puis il va au grand congrès annuel de la titrisation où les mecs sont vraiment très premier degré. Le tête-à-tête avec le fabriquant de CDO dans le resto pendant le congrès est à ce propos assez extraordinaire (avec la conclusion : et vous pesez combien ? Moi je pèse tant de milliards de dollars). La thèse est ainsi que les banques n’ont pas fondamentalement fais exprès de construire des titres pourris, elles ont fermé les yeux en pensant vraiment que de toutes façons les crédits immobilier se remboursent toujours, donc même si c’est pourris, ça passera !

    Cette question du niveau de préméditation des banques a été un des points important après la crise : les banques se sont-elles plantées par incompétence/négligence ou ont-elles volontairement vendu à leurs clients des produits qu’elles savaient largement surcotés. Le débat s’est notamment centré sur le cas de Greg Lippman (Jared Vennett dans le film). Cela apparaît dans le film sans pour autant être totalement transparent, mais de tous les personnages, il est le moins indépendant. Le borgne et les ados du MidWest sont clairement indépendants des banques qui ont fabriqué et vendu les produits financiers défectueux. Mark Baum (alias Steve Eisman) est certes lié à Morgan Stanley, mais de manière moins directe (il dirige une équipe autonome au sein d’un important hedge fund racheté fin 2006 par Morgan Stanley). Greg Lippman était quant à lui un salarié direct d’une banque qui a refourgué énormément de CDO à ses clients, et alors que son entreprise faisait perdre beaucoup d’argent à ses clients avec ces titres, lui faisait gagner beaucoup d’argent à cette même banque en pariant contre (s’octroyant évidemment au passage d’importants bonus). La défense de la Deutsche Bank et du trader a été de dire que la banque croyait effectivement dur comme fer dans les CDO et que le trader faisait ses affaires dans son coin, jouissant de sa relative autonomie et ayant péniblement réussi à convaincre ses patrons de la laisser faire son pari contre les CDO sans pour autant les convaincre que les CDO étaient pourris. La justice a cru cette défense et ils ont été acquittés.

    Mouillons-nous un peu

    En dehors du cas précis, la question de la malhonnête ou de la négligence/incompétence dans le développement de cette catastrophe financière est importante. Je pense qu’il y a une grosse part d’incompétence à tous les niveaux, mais également une grande part de je-m’en-foutisme. « Je fais mon taf à mon échelon sans réfléchir à ce qui se passe dans les échelons précédents et suivants, et basta ! ». Les produits étaient devenus hyper alambiqués et peu de gens les comprenaient. Ce peu de gens capables de les comprendre n’allait pas perdre son temps (précieux, très précieux en terme de salaire horaire) à lire tous ces détails et à étudier le marché immobilier alors qu’on sait très bien que c’est l’investissement le plus sûr et qu’il est donc sans risque !

    Après beaucoup de catastrophes, on se rend compte qu’il y a eu une flopée de négligences. Après Fukoshima, on s’est rendu compte que les normes de sécurité basiques n’étaient pas toutes appliquées. Mais bon, normalement y’a pas d’accident, alors pas mettre les normes de sécurité, normalement, ça passe ! Après l’explosion de Challenger, on s’est rendu compte que plein de gens savaient que les joints toriques n’avaient pas été testés convenablement aux grands froids (ce qui atténue un peu la portée de l’article utilisant ce crash pour montrer l’efficacité des marchés financiers). Mais bon c’est particulièrement pas de chance, parce que ça aurait pu (dû ?) passer et la négligence ne serait jamais apparue au grand jour. Combien de crashs aériens ont révélé des défauts de maintenance ? Sans parler du Rio-Paris, où certes il y a eu les sondes pitot, où certes il y a eu des pilotes qui semblent avoir particulièrement mal réagi, mais il y a eu aussi une sorte de jeu avec les règles de sécurité : on avait mal anticipé les bagages et on était un chouille en excédent de poids. Pas possible, même avec le plein, d’avoir assez de marge pour faire officiellement Rio-Paris. Mais on s’est dit, « ouai, mais la marge d’essence, elle est trop large, on en a assez en vrai ! », du coup on a officiellement enregistré le vol pour Bordeaux-Mérignac (avec dégagement pour Toulouse) en se disant qu’en arrivant vers la fin du voyage, on compterait l’essence, qu’il y en aurait assez et qu’on dirait « bon, finalement on pousse jusqu’à Paris sans s’arrêter à Bordeaux ». Mais en vrai, on était un peu juste en essence et on le savait, ce qui a pu aussi jouer dans la décision de traverser la zone orageuse plutôt que la contourner comme ont fait la plupart des autres avions.

    On pourrait sans doute trouver des milliers d’autres exemples, et l’avenir nous en donnera malheureusement beaucoup. Quoi qu’il en soit, s’il ne faut surtout pas entrer dans la théorie du complot, s’il ne faut pas plus brandir l’incompétence avec certitude quand on ne comprend pas une décision, il faut sans doute aussi se méfier des arguments d’autorité. L’incompétence est loin d’être certaine, mais la certitude est souvent incompétente. L’esprit critique, le doute, doit nous habiter en permanence. Et le borgne qui a pris la peine d’aller regarder dans les notices la composition exacte des CDO a failli y laisser sa chemise mais y a finalement gagné gros sur le dos des…

    [1] En fait, le vrai résultat de la loi des grands nombre, c'est le « théorème central limite », parfois appelé le « théorème de la limite centrale », ce qui est impropre car la limite n'est pas du tout centrale. En fait, c'est juste un théorème qui est vrai « à la limite » et qui est central dans la théorie mathématique des variables aléatoires. Bon, vous vous en foutez peut-être, mais vous pourrez toujours briller dans les salons avec une information aussi capitale que celle là.

    [retour ; haut de page]

    Introduction à la manipulation statistique, pédagogie par l'exemple

    13 novembre 2015

    Peu de phrases m'énervent autant que « on peut faire dire n'importe quoi aux chiffres ». Non, on ne peut pas leur faire dire n'importe quoi, mais on peut prétendre qu'ils disent ce qu'ils ne disent pas. Cela s'appelle de la manipulation statistique, c'est de l'ordre du mensonge. Je lisais dernièrement un livre qui a connu son moment de gloire l'année dernière (mais je ne suis pas toujours à la mode dans mes lectures) et j'ai été horrifié par une telle manipulation. Il s'agit de "La France périphérique, comment on a sacrifié les classes populaires" de Christophe Guilluy, paru en septembre 2014 aux éditions Flammarion. La thèse principale de ce livre pourrait se résumer ainsi :

    La France se sépare en deux : les métropoles et la périphérie. La périphérie est habitée par les classes populaires françaises de souche (de plus en plus fragilisées) quand les métropoles sont habitées par les bobos (riches) et les immigrés (qui pourront progresser dans la hiérarchie sociale grâce à leur accès privilégié à ces métropoles dynamiques, du fait d'une politique du logement social à leur avantage).

    Définition des métropoles et de la périphérie

    Evidemment, le point essentiel avant d'essayer de démontrer cette thèse est de définir ce que sont les métropoles et ce qu'est la périphérie. Pour commencer, rien de tel qu'une dénonciation des "statistiques officielles" : les deux dernières sous-sections de l'ouvrage précédant les définitions de l'auteur de "métropole" et "périphérie" sont ainsi appelées "S'affranchir des catégories de l'Insee" et "La carte des aires urbaines ou 'la carte d'état-major' des classes dirigeantes". Pourtant ce n'est finalement pas du tout le découpage en aires urbaines qui est critiqué (puisqu'en fait ce sont bien celles-ci qui sont utilisées) mais certaines des statistiques générales faites grâce à elles.

    L'Insee découpe le territoire en de multiples unités territoriales afin de donner toutes sortes de statistiques à l'échelle de ces unités. Il y a d'abord les unités administratives : anciennes et nouvelles régions, départements, arrondissements, communes. Puis des unités liées à l'habitat (les unités urbaines sont les ensembles d'habitat continu) ou à l'économie (les zones d'emploi sont construites à partir des mouvements pendulaires du domicile au travail). Les aires urbaines sont une forme d'unité liée à l'habitat et à l'économie puisqu'il s'agit d'un regroupement d'unités urbaines autour d'un pôle central d'emploi (le centre de l'aire urbaine est appelé le pôle urbain et les autres unités urbaines de cette aire urbaine la couronne). L'Insee définit tous ces découpages et donne un grand nombre de statistiques (économiques, démographiques, sociales…) pour chacune dans sa base de données locales. De plus, certaines publications utilisent ces données pour en donner une vue générale, en faisant des regroupements : par exemple grandes aires urbaines (plus de 10 000 emplois dans le pôle urbaine central), moyennes aires urbaines (entre 5 000 et 10 000 emplois), petites aires urbaines (entre 1500 et 5000 emplois) et hors toute aire urbaine.

    Ainsi, l'auteur ne conteste ni le découpage en aires urbaines ni les données sur chacune de ces unités, mais en fait la classification en petite, moyenne et grande aires urbaines. Selon lui, la seule séparation qui aurait du sens serait celle qui établirait la limite entre les 25 plus grandes aires urbaines (les métropoles) et le reste (la périphérie). Pourquoi cette séparation ? On ne sait pas, il faut lui faire confiance puisqu'il nous dit que c'est celle-là la vraie, sans justification ni référence à une justification qui aurait été précédemment apportée. Le livre reprend les données de 2010, ce qui nous permet de dire, d'après les données de l'Insee, que les trois dernières aires urbaines de la catégorie "métropole selon Guilluy" sont Angers, Metz et Béthune quand les trois premières recalées sont Valencienne, Dijon et Le Mans (en 2012, Béthune et Dijon ont échangé leurs places). Mais en fait, l'auteur ne s'arrête pas là, car selon lui certaines communes des 25 plus grandes aires urbaines font en réalité partie de la périphérie. Mais comment les reconnaître ? C'est là qu'entre une première fois en jeu le critère de fragilité.

    Caractérisation des différences entre les métropoles et la périphérie

    Le critère de fragilité est construit comme le reste, de manière totalement arbitraire. On sent bien qu'il n'est pas totalement dénué de sens, loin de là, mais on se demande pourquoi lui et pas un autre, il ne coule pas de source et les choix ne sont pas expliqués. Huit critères sont choisis, dont certains redondants : par exemple le premier critère est le pourcentage d'ouvriers dans la population active et le second le pourcentage d'ouvriers et d'employés. Puisque le premier est le pourcentage d'ouvriers, pourquoi ne pas juste regarder le pourcentage d'employés ? Cela de fait (avec d'autre critères) surpondère le caractère ouvrier et industriel. On peut tout à fait justifier de regarder la France industrielle d'une part, dire que cette population est particulièrement sujette à la fragilité, mais il est étrange de seulement surpondérer le fait d'être une ville industrielle dans le critère de fragilité. Sont alors considérées comme fragiles les communes ayant plus de trois des huit critères situés au-dessus de la moyenne française.

    Ensuite, les communes fragiles des couronnes des 25 plus grandes aires urbaines sont exclues des métropoles et renvoyées dans la périphérie. Ainsi, la distinction entre les métropoles et la périphérie dans la définition de Guilluy est construite en partie sur le critère de fragilité, puisque sont dans les métropoles les communes des 25 plus grandes aires urbaines sauf les communes fragiles de la couronne, et que sont périphériques les communes hors des 25 plus grandes aires urbaines plus les communes fragiles de la couronne.

    Et c'est là qu'advient le clou du spectacle. Mesdames et Messieurs, la démonstration est inattaquable, regardez les chiffres : il y a davantage de communes fragiles représentant davantage d'habitants dans la périphérie que dans les métropoles ! Etant donné qu'on a choisi certaines communes comme faisant partie de la périphérie plutôt que de la métropole où elle semblait devoir être classées sur le seul critère qu'elles étaient fragiles, c'est heureux qu'on arrive à ce résultat. Mais ça ne prouve rien du tout, à part que l'auteur – pour le dire gentiment – manque cruellement de rigueur.

    Un exemple révélateur : Hénin-Beaumont

    Pour justifier sa thèse, l'auteur présente quelques cas marquants de cette périphérie délaissée et se révoltant contre la société multiculturelle qu'on lui impose. Comme, il fait le lien entre ces classes populaires, reléguées dans la périphérie et délaissées par les élites, et le vote FN, un de ses exemples forts est le cas d'Hénin-Beaumont. Mais cet exemple pose grandement problème au regard de sa thèse, car Hénin-Beaumont ne fait pas partie de la périphérie mais des métropoles, et ce, même dans sa propre définition : même si c'est assurément une commune fragile selon son critère, il n'a normalement pas pu la recaser dans la périphérie puisque c'est une commune du pôle urbain central de la 14ème plus grande aire urbaine de France (elle s'est faite dépasser par Montpellier depuis et est donc devenue la 15ème). D'ailleurs, c'est intéressant de comparer ce qui passe dans cette ville, dans son aire urbaine et dans le reste du département ; le tableau suivant le montre pour quelques statistiques.

    On observe que cette aire urbaine, une métropole donc selon Guilluy, est bien plus dense que le reste du département - même si le département comporte une autre grande aire urbaine au sens de Guilluy (Béthune, en 2010, déclassée depuis) ainsi que Boulogne (66ème), Arras (68ème), Calais (72ème), puis dans les bas-fond du classement Berk et Saint Omer. Le reste est constitué de petites aires urbaines ou de zones rurales. On ne trouve évidemment pas d'agriculture à Hénin-Beaumont ni dans son aire urbaine, alors qu'on en trouve dans le reste du département. Globalement, et quel que soit le critère socio-économique, la "métropole au sens de Guilluy" de Douai-Lens va plus mal que le reste du Pas de Calais, sa périphérie. Et à l'intérieur de cette aire urbaine, Hénin-Beaumont va relativement mieux que le reste de sa zone d'emploi (la partie la plus urbanisée, autour de Lens) mais moins bien que la partie moins dense autour de Douai (dans le département voisin). En revanche, la part de l'industrie dans la production est étonnement stable entre toutes ces circonscriptions.

    Il y a clairement une question socio-économique prégnante à Hénin-Beaumont, liée à l'évolution post-industrielle de la société, aux phénomènes de polarisation, de chômage de masse… mais le diagnostic de fracture liée à la multiple lutte métropole/périphérie ; élites/peuple ; multi-culturalité/identité française, si mal argumenté à l'aide de chiffres truqués, n'est probablement pas le bon. Si de grandes parties de la France souffrent, c'est probablement d'autres maux que des "flux migratoires incontrôlés, [de l']absence de réponse concrète face à la délinquance, [de l']émergence de la société multiculturelle [… et de l']émergence très rapide d'une classe moyenne issue de l'immigration maghrébine et subsaharienne", qui semblent être la principale obsession de Christophe Guilluy.

    [retour ; haut de page]

    Le rachat de Newen et la confusion entre service public et actionnariat public

    2 novembre 2015

    Après l'annonce du rachat de la société de production Newen par TF1, de nombreuses voix se sont élevées pour condamner cette acquisition, notamment du côté de France Télévision. En particulier, parmi les arguments présentés, le fait que France Télévision est un groupe audiovisuel public, financé par la redevance, est revenu assez fréquemment. Cet argument est assez troublant car il est difficile de voir le lien direct entre le fait que France Télévision est un groupe public et le problème du rachat par un de ses concurrents privés d’une société de production privée. Les anciens actionnaires privés de Newen étaient-ils plus légitimes à recevoir les dividendes de contrats passés avec la chaine publique (financés par la redevance) que ne le sont ses nouveaux actionnaires, tout autant privés : ceux de TF1 ?

    Quel lien entre le rachat de Newen et la redevance ?

    On comprend bien la plainte du côté de France Télévision, qui voit son principal concurrent se renforcer fortement, se renforcer tellement qu’il deviendrait propriétaire d’une entreprise de production elle-même propriétaire d’un certain nombre d’émissions diffusées par France Télévision. Le groupe public est clairement perdant à cette fusion, et tente donc de la condamner, tout comme aurait fait un groupe privé dans la même situation. Ce qui compte ici est qu’un concurrent sur le marché de la diffusion télévisée de divertissement craint de perdre fortement et la question principale est de savoir si la concurrence devient biaisée. Il s’agit donc bien d’une question de concurrence, en l’occurrence de concentration verticale, et pas d'un problème de service public.

    La confusion provient sûrement du fait que France Télévision a deux parts : une part de service public et une part commerciale « classique » en concurrence directe avec des acteurs privés. Cette seconde part est particulière dans le sens où elle est opérée par une entreprise d’actionnariat public. D’une certaine manière, la partie service public n’aurait pas à s’inquiéter de la concurrence privée, son but est justement d’offrir un service télévisuel que les chaines commerciales (publiques ou privées) n’offrent pas. En revanche, la partie commerciale à actionnariat public a des raisons de s'inquiéter car sa position commerciale est clairement affaiblie par le renforcement de son principal concurrent.

    La confusion entre service public et service (commercial) rendu par une institution publique

    Or, il semble que la société de production rachetée vende beaucoup de programmes a beaucoup de chaines - privées et publiques - sans qu’on puisse observer de différences nettes entre les différents programmes, ni en termes de prix ni en termes de contenu. Il semble donc qu’il s’agisse bien là de la partie « commerciale classique » de France Télévision et non de sa partie « service public ». Donc la redevance, justifiée par le fait que France Télévision rend un service public télévisuel, n’a rien à voir avec l’acquisition de Newen par TF1.

    La confusion est sûrement permise par le fait que les deux parties de France Télévision - service public et services commerciaux d’actionnariat public - ne sont pas clairement séparés et qu’il est donc possible d’appeler au respect de l’un quand l’autre est attaqué. On pourrait certes avancer que les deux sont liés parce que le profit réalisé sur la partie commerciale permet de financer en partie la partie service public en allégeant les besoins de ressources publiques pour ce faire. Il n’en reste pas moins un important point d’interrogation sur la légitimité qu’aurait l’Etat d’user de son pouvoir pour empêcher un acte commercial privé d’un acteur privé nuisant aux intérêts commerciaux d’une entreprise dont il est actionnaire.

    Uniquement une question de concurrence

    Car c’est bien d’une question de concurrence qu’il s’agit ici : est-ce que le rachat d’une des plus grosses sociétés de production télévisuelle par l’une des plus grosses sociétés de diffusion télévisuelle crée une concentration verticale telle qu’elle nuise au bon fonctionnement du marché de la télévision de divertissement ? Il est normal que les principaux concurrents de la société se renforçant ainsi plaident pour un défaut de concurrence. Et ce, qu’ils soient à actionnariat public ou privé. Mais la forme de leur actionnariat n’a rien à voir là-dedans, et le service public non plus.

    Il conviendra seulement à l’autorité de la concurrence, qui sera probablement saisie vu les tailles des entreprises concernées par ce rachat, de donner son avis sur ce rachat et sur d’éventuels engagements que devraient prendre TF1 pour assurer qu’il n’y aura pas d’atteinte à la concurrence sur le marché de la diffusion télévisuelle. En particulier, il est probable qu’un certain nombre de garanties seront demandées pour s’assurer que Newen continuera de traiter de la même façon l’ensemble de ses clients, leur maison mère comme leurs concurrents, que ces concurrents soient des chaines publiques ou privées.

    [retour ; haut de page]

    Assumons le dynamisme de nos métropoles

    avec Philippe Martin, Le Monde, 30 juin 2015

    Il est facile d’opposer les métropoles aux territoires déshérités, oubliés de l’activité économique. C’est une erreur. Par leur dynamisme, les métropoles sont appelées à tirer la croissance française, et donc à solvabiliser notre système de service public et de transferts sociaux. Enrayer la croissance des métropoles au motif que l’activité devrait se répartir plus harmonieusement sur tout le territoire, c’est affaiblir notre position dans la concurrence mondiale. Il ne faut pas confondre égalité entre territoires et égalité sociale.

    Il importe d’assurer à chaque individu une égalité des chances sur tout le territoire, mais il serait contre-productif de chercher à tout prix à disperser l’activité. C’est ce qu’expose une note du Conseil d’analyses économiques (CAE) coécrite avec Philippe Askenazy (Philippe Askenazy et Philippe Martin, « Promouvoir l’égalité des chances à travers le territoire », note n°20, février 2015). Celle-ci se concentre sur les inégalités au niveau des régions et ne traite pas des inégalités au niveau des villes ou des quartiers qui appellent d’autres analyses.

    Nous partons d’un certain nombre de constats, dont le fait que depuis le début des années 1990, la croissance de l’activité diffuse moins vers les régions moins développées. Autrement dit, l’activité productrice a arrêté de se déconcentrer. Mais dans le même temps, par le jeu principalement des transferts mais aussi de la mobilité et de la distribution géographique des revenus du patrimoine, les inégalités interrégionales de revenu disponible des ménages ont continué à diminuer. Il y a eu ainsi une dissociation croissante entre la géographie de la production et la géographie des revenus.

    Les chiffres relatifs à l’Ile-de-France résument bien cela : si cette région a produit 30 % du produit intérieur brut (PIB) métropolitain en 2012, ses habitants n’ont disposé que de 22,5 % du revenu disponible des ménages. Les politiques publiques devraient-elles aller contre ce phénomène d’agglomération des activités économiques et contre ces pôles de croissance que sont les grandes métropoles ?

    Concentration et productivité

    Ce qu’on apprend de la « nouvelle géographie économique », à la suite des travaux du Prix Nobel d’économie (2008) Paul Krugman, nous amène à répondre par la négative. La concentration spatiale des activités de production et de recherche d’un secteur permet d’augmenter la productivité et donc la croissance de long terme. Les études empiriques récentes montrent que la productivité des entreprises françaises augmente lorsque d’autres entreprises du même secteur s’installent à proximité.

    Cela permet en effet une utilisation plus efficace des infrastructures publiques, une meilleure adéquation entre emplois et travailleurs, et aussi des externalités technologiques, en particulier pour ce qui concerne les activités de recherche. Toulouse dans le secteur aéronautique, Sophia Antipolis dans celui des technologies de l’information et de la communication sont des exemples de ce type de gains d’agglomération.

    En revanche, une trop grande spécialisation territoriale peut être dangereuse en augmentant la vulnérabilité à des chocs sectoriels rendus plus probables avec la mondialisation. L’histoire a montré combien certaines régions ont souffert d’avoir lié leur destin à un seul secteur industriel. C’est justement l’avantage des grandes métropoles qui bénéficient des gains d’agglomération mais aussi d’une structure économique diversifiée.

    Les grandes aires urbaines ont ainsi mieux résisté à la crise que les villes de petite et moyenne taille : alors que dans les premières l’emploi a augmenté, il a baissé dans les secondes depuis 2008. Nous tirons de ces constats la conclusion que les politiques publiques ne devraient pas freiner l’émergence de pôles de croissance mais au contraire s’attaquer aux effets de congestion dans les zones en tension. L’association de règles de décision d’urbanisme à un niveau très local et d’aides à la pierre non ciblées a engendré une localisation de la construction inadaptée aux besoins.

    Disparités d’accès aux soins

    Les priorités sur le transport public doivent aussi être réorientées sur les grandes agglomérations plutôt que sur les TGV. Rappelons qu’aujourd’hui, l’Ile-de-France représente 22 % du trafic ferroviaire et ne bénéficie que de 9 % des financements du réseau. Le projet du Grand Paris Express à l’horizon 2030 est une prise de conscience bien tardive.

    Il est indispensable dans le même temps, d’assurer une égalité des chances et de bien être des individus à travers tout le territoire, en termes d’accès à l’éducation, à l’emploi et à la santé et en levant les freins à la mobilité des individus. Dans les zones peu denses, il ne semble pas judicieux de chercher à installer des activités économiques de manière artificielle. Il n’est pas non plus efficace de disséminer des universités de petite taille, cela ne serait pas rendre service aux étudiants. Il faudrait plutôt faciliter leur mobilité pour permettre à tous d’accéder à un enseignement supérieur de qualité.

    Pour ce qui est de l’enseignement primaire et secondaire, en revanche, il faut concentrer l’effort public sur les territoires les plus défavorisés. Aujourd’hui, le financement de l’apprentissage est très inégalement réparti sur le territoire car est déterminé par la localisation des entreprises. Nous proposons de fixer au niveau national une dotation que chaque apprenti apporte à son centre d’apprentissage quelle que soit sa localisation.

    Enfin, dans le domaine de la santé, d’importantes inégalités territoriales persistent comme le confirme le récent rapport du ministère de la santé. Ceci est en partie dû à de fortes disparités d’accès aux soins sur le territoire. Il est nécessaire de renverser la logique de financement des soins : les moyens doivent suivre les besoins des populations locales au lieu de suivre l’offre médicale comme c’est le cas actuellement.

    [retour ; haut de page]

    Les cinq phases du deuil des politiques publiques

    17 février 2015

    Beaucoup de choses ont été dites sur les liens entre les chercheurs académiques et les décideurs politiques, encore plus reste à dire certainement. Mon but ici est uniquement de donner un modeste témoignage et mon sentiment sur ce qui parfois fait que ce lien n’est pas celui qu’on pourrait espérer, celui que le fameux « idéal démocratique » met si souvent en avant. Comme je suis du côté des académiques, et pire encore des économistes – donc donneur de leçons et persuadé (bien conscient voulais-je dire) que personne à part moi (éventuellement nous) ne comprend rien à rien – je prendrai volontairement un parti totalement partial en ne regardant que la paille (mais quelle énorme paille) dans l’œil de l’administration et passant complaisamment sous silence la si petite poutre dans l’œil des universitaires. Pour l’avoir vécu de nombreuses fois, la réception par l’administration d’évaluations de politiques publiques, quand les évaluations sont défavorables, suit le cheminement suivant en cinq phases observables à travers les questions posées aux chercheurs venus présenter ses travaux.

    Pour un peu plus de vie dans l’exposé de ces cinq phases, je prendrai un exemple : l’impact inflationniste des allocations logement. Une étude récente (une version courte et didactique est disponible ici) utilise les frontières géographiques entre niveaux d’allocation logement pour le montrer. L’idée est que les prix de l’immobilier diminuent au fur et à mesure qu’on s’éloigne du centre d’une unité urbaine. Les allocations logement tiennent compte de cela et sont croissantes avec le niveau de tension du marché du logement. Pour plus de lisibilité, il n’y a pas une allocation pour chaque pâté de maison mais trois niveaux d’allocation en tout : un pour l’île de France (la zone 1) et deux pour le reste du pays (les zones 2 et 3). Quand on franchit la rue qui sépare la zone II de la zone III, les allocations logement baissent (ou augmentent selon notre sens de franchissement de cette rue) soudainement. Or, la baisse des prix de l’immobilier avec la distance au centre est en général continue. Les auteurs observent cependant une discontinuité des prix de l’immobilier au niveau du changement de zone des allocations logement, et à ce niveau uniquement. Ils en déduisent logiquement que les allocations logement ont un impact sur les prix de l’immobilier.

    Phase 1 : le déni

    La première question après la présentation des travaux est toujours : Vous avez dû vous tromper, oublier un effet qui biaise vos estimations. Tiens, regardez, ce n’est pas du tout à cause de l’allocation logement que c’est plus cher, mais bien parce que c’est plus cher qu’on donne plus d’allocations logement. Ce à quoi le conférencier répond en refaisant son topo sur sa stratégie d’identification : évidemment, les prix sont en moyenne plus élevés dans la zone 2 que dans la zone 3, mais ce qu’on observe, c’est que ces prix connaissent un saut au passage entre zones alors même que le tissu urbain ne connait pas de saut. C’est ce saut qui est révélateur de l’influence des allocations logement sur les prix et non la différence moyenne des prix.

    Certes les évaluations sont toujours soumises à des doutes statistiques et méthodologiques. Mais ce qui est intéressant, c’est l’utilisation à sens unique du doute. Au chercheur qui présente ses résultats évoquant une forte inefficacité d’une politique publique, on lui rétorque le doute scientifique. En revanche, quand il s’agit de renforcer encore cette politique, d’en augmenter l’ampleur, on évoque finalement peu le doute sur son efficacité réelle, même si ce doute est plus que sérieux puisque de nombreuses études montrent son inefficacité. Cela marche dans le sens inverse s’il s’agit de couper une politique publique dont on ne veut plus malgré des études montrant son efficacité : on évoquera le doute scientifique sur ces études.

    Phase 2 : la colère

    La seconde question fuse assez rapidement après la première, sur un ton énervé : Tous les pays ont des allocations logements, vous êtes donc en train de dire que tous les pays mènent une politique inefficace ? Le conférencier ne se démonte pas. Effectivement, de nombreux pays ont des dispositifs similaires. Ceci permet d’ailleurs de réaliser des études statistiques similaires dans d’autres pays. Ainsi, outre les autres études françaises trouvant les mêmes résultats avec d’autres méthodologies (ici et ici), l’effet inflationniste a été montré aux Etats-Unis, en Grande-Bretagne et en Finlande.

    Phase 3 : le marchandage

    Viens alors la phase de marchandage : Oui… mais en fait non : ce que vous montrez, ce n’est pas que les allocations logements sont inflationnistes… c’est juste que leur zonage a été mal fait. Là, un petit blanc. Heu, non, le coup du zonage sert uniquement d’instrument pour estimer l’impact. Là où le niveau des allocations logements est discontinu apparaît de manière saillante l’effet inflationniste, mais celui-ci n’est en rien créé par le seuil. Si on lisse tous les effets de seuil, on ne décèlera plus l’effet inflationniste par ce biais, mais cela ne le fera pas disparaître pour autant.

    Une autre méthode de marchandage classique est l’invocation d’un double dividende. Il est souvent utile pour défendre politiquement l’introduction d’une mesure d’argumenter qu’elle a de multiples dividendes. Abondance de biens ne nuit pas. Par exemple : les réductions d’impôt pour les services à la personne permettent en même temps de répondre à des besoins sociaux (garde d’enfants et dépendance des personnes âgées) et de créer des emplois. C’est encore plus pratique quand il s’agit de la défendre contre des évaluations défavorables. Pour être précise, une évaluation doit souvent se concentrer sur un point particulier, et donc évaluer les multiples dividendes un par un. A chaque fois qu’un point sera montré inefficace, on marchandera en disant qu’il y a les autres, quand bien même d’autres études montrent que les autres dividendes sont tout aussi douteux.

    Il est donc important de réunir l’ensemble des évaluations. Toutefois, celles-ci nécessitent des compétences techniques ou des questionnements disciplinaires différents. Or, du point de vue de l’interdisciplinarité (ou ne serait-ce que de l’inter-méthodologie à l’intérieur d’une discipline), l’université pèche fortement. Pour autant, les choses changent et des projets d’évaluation globaux recouvrant plusieurs études selon des méthodologies différentes par des chercheurs de disciplines différentes commencent à voir le jour. Pour revenir à l’exemple cité de double dividende dans les services à la personne, sortira prochainement un ouvrage collectif regroupant des études d’économistes, de juristes, de politistes et de sociologues sur la situation dans plusieurs pays européens. J’en reparlerai plus longuement ici après sa sortie.

    Phase 4 : la dépression

    Mais revenons à nos cinq phases du deuil, et plus précisément la quatrième. Devant la salle qui ne sait plus trop à quoi s’en tenir, un responsable prend la parole, et semble s’adresser à ses ouailles plus qu’il ne pose une question ou fait un commentaire : Certes, cette mesure a probablement des effets inflationnistes, mais que faire ? Faudrait-il tout changer ? Certes non, cela ferait des perdants. Le sous-entendu est que faire des perdants est politiquement interdit. Ce fameux argument des perdants est tellement récurrent qu’il en est décourageant. S’il existe une situation tellement inefficace qu’on puisse en sortir sans léser personne, alors il ne faut pas hésiter. Malheureusement, le plus souvent, des personnes bénéficient du statu quo. En particulier, si on veut corriger une politique qui a des conséquences distributives que l’on juge mauvaises, on ne peut le faire sans faire des perdants : ceux-là même qu’on considère comme les gagnants indus de la situation précédente.

    Phase 5 : le refoulement

    Que restera-t-il de tout cela une fois que tout le monde aura regagné son bureau, au ministère ou à l’université. On pourrait espérer que les résultats des évaluations infusent petit à petit, au fil des années. Malheureusement, il est également possible qu’ils ne le fassent pas : Quoi ? Un impact inflationniste des allocations logement ? Ahhhh oui… il me semble en avoir entendu parler une fois dans un séminaire. Je ne sais plus trop bien pourquoi, mais in fine on avait conclu que ça ne changeait rien sur le fond.

    [retour ; haut de page]

    Extrême recentrage

    le 1 hebdo n° 42, 4 février 2015

    La corrélation entre la montée des extrêmes et les mesures d'austérité est trompeuse car la crise a en même temps engendré une réponse austère et exacerbé les mécontentements. Le mouvement Pegida est né dans une Allemagne relâchant son austérité issue des lois Hartz de 2003-2005, en particulier avec la mesure emblématique de création d'un salaire minimum à 8,50 euros de l'heure à partir du 1er janvier 2015. à l'opposé, il semble que certains partis extrémistes aient vu leur cote de popularité monter suite à un recentrage. Le changement de leader au Front national a contribué à lisser le discours : toujours très virulent en apparence à l'encontre des partis habitués au pouvoir, sa charge extrémiste s'est néanmoins estompée.

    En Grèce aussi, Syriza, étiqueté "gauche radicale", s'est recentré au cours de la campagne jusqu'à s'en tenir à un programme assez proche de celui du Pasok au début de la crise. Le nouveau ministre des Finances, Yanis Varoufakis, est d'ailleurs un ancien conseiller de Papandréou. Modeste proposition pour résoudre la crise de la zone euro (Les Petits Matins, 2014), le livre qu'il a écrit avec son collègue à l'université du Texas, James Galbraith, et Stuart Holland (ancien membre de la chambre des communes britannique et ancien conseiller de Jacques Delors), avance des solutions à la crise tout à fait modérées. Il ne remet en cause ni l'impossibilité de la BCE de monétiser la dette ni le refus par droit de veto des états excédentaires de garantir la dette des autres.

    Il n'y a pas de marge de manœuvre budgétaire en Grèce pour augmenter les dépenses sans augmenter les recettes. La déflation qui suivrait une sortie de l'euro pourrait certes améliorer à long terme la balance commerciale grecque. Mais cela créerait à court et moyen termes un choc de pouvoir d'achat plus important que les baisses de salaires précédemment consenties. Le quart de la consommation est importée, on verrait donc les prix de ces marchandises s'envoler, avec un effet induit sur les productions locales lié à l'augmentation du prix des intrants, dont l'énergie.

    Reste à négocier des rabais ou délais de remboursement. L'acceptabilité dépend des réformes mises en place. Une des raisons pour lesquelles la Grèce en est là, c'est sa faible capacité à prélever des impôts. La France se permet un des niveaux de dépenses publiques les plus élevés du monde parce qu'elle parvient à prélever les ressources fiscales pour le faire. Une réforme globale de la fiscalité doit faire partie du programme grec. Si est mis en place un système de transferts qui prélève (de préférence sur ceux qui en ont les capacités) les ressources pour financer une couverture sociale répondant à la "crise humanitaire" dénoncée par le nouveau Premier ministre grec, alors il serait souhaitable que le reste de l'Europe apporte son aide (notamment financière) pour faciliter cette transition. Une hausse du salaire minimum et des minima sociaux pourrait faire partie de cette réforme. En revanche, une baisse d'impôt touchant également des contribuables solvables serait plus problématique.

    Le traitement de la taxe foncière - une taxe impopulaire que de nombreux Grecs n'ont pas payée en prévision d'un éventuel cadeau d'intronisation - sera crucial. La valeur des logements habités augmentant moins vite que le revenu des ménages qui les habitent, les taxes foncières sont généralement des impôts régressifs (quand une part substantielle de la population est propriétaire de son logement, comme c'est le cas en Grèce). Il peut alors être fondé de modifier cet impôt, soit à travers un barème progressif, soit par incorporation dans une taxe plus globale sur le patrimoine. En revanche, une baisse sans compensation "en haut" de la distribution des revenus serait un bien mauvais présage, malheureusement en adéquation avec l'alliance opérée avec la droite nationaliste. Il faut augmenter la fiscalité sur les plus aisés pour compenser la diminution "en bas" des revenus distribués.

    [retour ; haut de page]

    Emploi, ce que l’on pourrait faire au même prix

    avec Bruno Palier et Michaël Zemmour, les Echos, 1er décembre 2014

    On lit souvent que la France est l'un des pays où les prélèvements obligatoires sont parmi les plus élevés du monde. La France est aussi l'un des pays où les politiques d'exemption fiscale et d'exonération de cotisations sociales sont les plus développées. Le coût budgétaire des dispositifs mis en place dans le seul domaine de la protection sociale et de l'emploi dépasse les 90 milliards d'euros (hors Cice). Deux programmes, parmi les plus coûteux et les mieux connus, visent spécifiquement à faire baisser le coût du travail des emplois peu qualifiés : les exonérations générales de cotisations employeur et les dispositifs concernant l'emploi de salariés à domicile. Les pertes de recettes fiscales et sociales au titre de ces deux politiques représentaient en 2011, 27 milliards d'euros soit 1,3 point de PIB.

    Une méta-analyse des nombreuses évaluations existantes permet d'évaluer l'impact de ces politiques. Les travaux les plus récents calculent un coût (sans doute sous-estimé) de l'ordre de 40.000 euros par emploi créé, mais il ne s'agit là que d'une moyenne. En effet, l'efficacité marginale de ces mesures socio-fiscales est fortement décroissante. Autrement dit, chaque milliard supplémentaire dépensé via ces dispositifs crée moins d'emplois que le précédent. On estime, par exemple, que la mise en place de la réduction d'impôt pour l'emploi d'un salarié à domicile en 1992, avec un plafond de 3.811 euros par an, a permis la création de 27.556 emplois en équivalent temps plein pour un coût de 39.113 euros par emploi créé. Mais, en 2003, l'augmentation du plafond du même dispositif, de 6.900 à 10.000 euros, n'a créé que 553 emplois soit un coût de 159.494 euros par emploi créé (une efficacité quatre fois moindre).

    L'examen des évaluations universitaires disponibles, montre qu'au moins 6 milliards d'euros sont consacrés à des politiques dont le coût par emploi créé est supérieur à 62.500 euros par an, dont plus de 1,9 milliard d'euros à des politiques dont le coût par emploi créé est supérieur à 160.000 euros. Or, un emploi au SMIC, sans exonérations, avec une complémentaire santé, un treizième mois, revient annuellement à 30.000 euros, coût d'encadrement compris.

    Un meilleur usage de l'argent public consisterait à consacrer le même budget (6 milliards d'euros) à créer 200.000 emplois financés directement sur fonds publics. Ceux-ci pourraient éventuellement être utilisés par des acteurs privés, par exemple dans les secteurs de l'accueil des jeunes enfants ou de l'aide à domicile pour les personnes âgées dépendantes.

    Certes, ces emplois remplaceraient en partie des emplois existants - ce qu'on appelle l'effet d'éviction. Mais, compte tenu de l'énorme écart entre le coût par emploi créé des dispositifs actuels et le coût direct d'un emploi, le passage au financement public direct serait tout de même créateur net d'emplois. L'effet d'éviction serait d'ailleurs d'autant plus faible que la création d'emplois serait ciblée pour répondre à des besoins sociaux aujourd'hui non satisfaits, comme l'aide aux personnes âgées dépendantes ou la petite enfance. En effet, non seulement le coût des politiques actuelles est particulièrement élevé, mais nombre des emplois qu'elles permettent ne répondent pas aux besoins sociaux les plus manifestes : pour les services à domicile par exemple, les exemptions fiscales bénéficient avant tout aux ménages aisés, non seulement pour les aider à prendre en charge les membres de leur famille, mais aussi souvent pour prendre en charge une partie du coût de leur femme de ménage ou de leur jardinier. A l'opposé, les ménages modestes n'ont pas accès à ces services.

    En définitive, ce que nous coûtent les politiques de « baisse du coût du travail » (y compris le Cice pour lequel on pourrait appliquer le même raisonnement) ne se mesure pas uniquement en milliards. Dans un contexte budgétaire contraint, les moyens qui leur sont consacrés privent l'Etat de l'opportunité de mener des politiques d'investissement social, au moins aussi créatrices d'emplois, mais qui répondent aux défis sociaux de notre époque.

    [retour ; haut de page]

    Optimisation fiscale 101

    24 novembre 2014

    Lors de la rencontre des ministres des finances du G20 les 20 et 21 septembre derniers à Cairns en Australie, ces derniers ont validé les propositions de l’OCDE en vue de limiter les problèmes des systèmes fiscaux nationaux pour imposer les sociétés multinationales. Alors que l’OCDE a longtemps eu comme objectif fiscal principal de limiter les phénomènes de double taxation afin de favoriser le commerce international, l’organisation se penche depuis l’été 2013 sur la question de la double non taxation et en particulier sur les questions d’évasion fiscale via l’érosion de la base ou les transferts de profits taxables entre les différentes filiales localisées dans différents régimes fiscaux (BEPS en anglais pour Base Erosion and Profit Shifting). S’il n’est pas nouveau, le problème s’est accru par la mondialisation des échanges mais surtout des financements, et par la part grandissante des immatériels parmi les actifs des sociétés multinationales. Petit récapitulatifs des grands principes d’optimisation fiscale des entreprises multinationales.

    La question des prix de transferts

    Une première méthode pour faire de l’optimisation quand on est un groupe multinational consiste à bien choisir ses prix de transfert. Pour prendre le cas le plus simple possible, supposons qu’une filiale A dans le pays 1 produise un bien essentiel à la fabrication du bien final (pour un coût unitaire a), qu’elle vend à une autre filiale B dans le pays 2 qui produit le bien final (avec le bien intermédiaire et un coût supplémentaire b). Supposons que le groupe formant les deux entreprises puisse vendre le bien final au prix p et réaliser ainsi un profit π=p-a-b. Le groupe d’entreprises peut transférer tout le profit dans le pays 2 en tarifant la vente du prix intermédiaire au prix "a" ou au contraire transférer tout le profit dans le pays 1 en tarifant le bien intermédiaire au prix a+π. Ce prix de vente de bien intermédiaire entre filiales d’un même groupe peut donc être choisi non en fonction de considérations économiques (la part de la valeur du bien final produite par le maillon constitué de la production du bien intermédiaire A) mais en fonction de considérations fiscales (lequel des pays 1 ou 2 impose le moins les bénéfices des entreprises).

    C’est pour cela que les pays tentent de contrôler les prix de transferts (ces prix entre filiales). Cependant, il n’existe de pas de théorie de la valeur permettant de déterminer le juste prix d’un bien à partir de données administratives (cf. le supplément bonus HPE infra). Ainsi, le principe général pour le contrôle des prix de transfert est le arm’s length principle, qui consiste à comparer le prix de transfert contrôlé avec des transactions équivalentes entre des entités indépendantes. Si le siège social de Renault achète des Nissan produites au japon pour son parc automobile, on va comparer le prix du contrat avec des contrats équivalents entre Nissan et d’autres entreprises indépendantes. Dans certains cas (des consommations relativement usuelles) cela peut être aisé, mais c’est bien plus compliqué pour des biens très spéciaux, qui ne sont en fait produits que par la filiale A, et vendus uniquement à la filiale B.

    En particulier, il est très compliqué obtenir une référence pour appliquer ce arm’s length principle dans le cas des droits d’utilisations des actifs immatériels, des royalties de la propriété intellectuelle. Pour cela, il n’existe aucune référence à laquelle comparer le prix de transfert. Ceci est particulièrement saillant dans l’économie numérique, où la très grande majorité de la création de valeur est liée à de la propriété intellectuelle sur les algorithmes, mais cela concerne également des productions tout ce qu’il y a de plus matérielles. Supposons ainsi le cas d’une chaîne de bistrots. Elle peut annoncer que son succès est dû au goût unique et uniformisé de son café (selon une recette de torréfaction constituant un actif incorporel) et au concept d’aménagement intérieur (également incorporel). Cette chaîne situe sa maison mère en Irlande, et lui alloue la propriété de tous les actifs incorporels. Elle loue l’utilisation de cette propriété intellectuelle à des filiales exploitant des bistrots à Londres ou à Paris. Les royalties sont calculées pour que les filiales londoniennes et parisiennes soient juste à l’équilibre financier et ne soient donc pas imposées au fort taux continental, mais que l’intégralité du profit soit transféré par les droits de propriété intellectuelle à la filiale en Irlande et imposé à son faible taux. Il est alors compliqué pour les administrations fiscales française et anglaise de contester ce prix de transfert car il n’existe pas d’équivalent pour servir de référence au prix de transfert.

    La question des paradis fiscaux

    Si elle veut éviter aussi le faible taux irlandais, une entreprise peut aller encore plus loin. Au fur et à mesure qu’une entreprise numérique de la silicon valley ne rapatrie pas ses profits aux USA, elle gonfle les comptes d’une filiale aux îles Caïman. Mais il faut les réinvestir. Alors cette filiale peut financer des chercheurs de la silicon valley pour faire des innovations. Comme elle les a financées, elle est propriétaire de l’innovation de son brevet et c’est à cette filiale des îles Caïmans que son payées les Royalties.

    Pour lutter contre ce type de montage (et il semble qu’on commence à vraiment vouloir le faire), il convient de conditionner la non-taxation d’un revenu à payer à l’étranger au statut fiscal de cet étranger. C’est un des points essentiel présenté par l’OCDE et accepté par le G20. Ainsi, une entreprise déclare dans un pays son bénéfice fiscal comme la différence entre ses recettes et ses coûts déductibles. Alors elle doit non-seulement montrer la réalité des coûts pour qu’ils soient déductibles, mais également que le paiement de ses coûts donne lieu à un bénéfice taxable pour l’entreprise qui reçoit ce paiement. Si ce coût est payé à une entreprise située dans un paradis fiscal, alors il n’est pas déductible du bénéfice taxable de l’entreprise payeuse et sera donc imposé.

    La question des prêts et des produits hybrides

    Les prix de transfert ne sont pas le seul moyen de transférer du profit d’une filiale à une autre. Cela peut être fait à partir des modes de financement, et notamment grâce au prêt intra-groupe. Cela est permis par le fait que les intérêts d’emprunt sont déduits du bénéfice taxable. Ainsi, supposons qu’un groupe veuille faire un investissement sur fond propre dans un pays A à fort taux d’imposition des sociétés. Il peut apporter ses fonds propres à une filiale B dans un pays à faible taux d’imposition, filiale B qui prête à la filiale A les fonds nécessaires à l’investissement. Une fois les profits liés à l’investissement réalisés, la filiale A rembourse à la filiale B et transfert une partie des bénéfices dans le pays B via les intérêts, qui sont taxés à faible taux dans le pays B au lieu d’être taxés à taux élevé dans le pays A.

    Ce type de transfert pourrait être facilement interdit en n’autorisant pas la déduction des intérêts des prêts accordés par une entreprise du même groupe. Seulement ce pourrait être économiquement pénalisant pour certains groupes. Suivant les caractéristiques des groupes, les levées de fonds peuvent s’avérer plus simple dans certains pays que dans d’autres, conduisant à un motif économique de lever les fonds dans un pays et de les transférer dans le pays nécessitant les investissements via des prêts intra-groupes. Les solutions, en très grande partie déjà mises en place, consistent en un contrôle accru des prêts intra-groupes et un plafonnement de leur niveau de déduction au travers de calculs de ratio d’endettement intra-groupes.

    Dans le même genre d’idées, mais de manière plus complexe, il peut être rentable d’utiliser des « produits hybrides ». Ce sont des contrats de financement suffisamment compliqués pour qu’il ne soit pas clair s’ils sont à classer comme dettes (et imposables après remboursement au niveau de l’entité récupérant les intérêts) ou comme fonds propres (et imposables avant versement au niveau de l’entité ayant exploité l’investissement). Ainsi, si une entreprise opère entre deux pays ayant une interprétation différente du produit hybride, par exemple le pays A le considère comme une dette et le pays B comme des fonds propres, il est alors possible de l’utiliser pour financer depuis le B des investissements dans le pays A. Les rendements de ces investissements sont ensuite transférés dans le pays B via rémunération du financement. Le pays A considère ce transfert comme des intérêts, et donc taxables dans le pays B, mais le pays B les considèrent comme le rapatriement d’un revenu généré dans le pays A et donc taxable dans le pays A : le profit n’est finalement taxé nulle part. La solution proposée par l’OCDE, hors l’harmonisation des principes fiscaux, est de conditionner la déduction dans le pays A à la vérification que le revenu sera effectivement taxé dans le pays B.

    Vers une uniformisation des conventions fiscales

    Tout cela demande des coopérations fortes, qui sont d’autant plus coûteuses aussi bien pour les entreprises (en coût de conformité) que pour les Etats que les conventions fiscales entre Etats sont presque toujours bilatérales. L’OCDE propose ainsi de concevoir une convention normalisée pour limiter la complexité des systèmes en ayant les mêmes conventions entre tous les pays. Mais pour vraiment avancer et simplifier la compréhension et l’application de ces conventions, il faudrait aller vers un système de comptabilité unifié. Il est plus simple de faire le point dans les transferts entre deux entreprises dans deux pays différents si leurs comptabilités sont calculées selon les mêmes règles. Cette idée de comptabilité unifiée avait été tentée par l’Union Européenne avec le projet CCCTB (common consolidated corporate tax base, pour Assiette commune et consolidée pour l’imposition des sociétés). Le changement de comptabilité introduirait un coût d’ajustement pour les entreprises, mais diminuerait à long terme les coûts de mise en conformité des entreprises transnationales. Le problème est qu’en matière fiscale, il faut l’unanimité des Etats membres pour introduire une telle réforme, et que celle-ci sera probablement difficile à obtenir.

    Supplément bonus HPE : une histoire des théories de la valeur

    Pour revenir à la question initiale des prix de transfert, la solution serait simple si on pouvait facilement définir juridiquement le « juste prix » d’un bien intermédiaire ou d’une licence d’utilisation d’un actif immatériel. On pourrait alors définir la « juste » répartition territoriale de la valeur à partir de la reconstitution de juste prix de chaque maillon de la chaine de production de la valeur pour allouer à chaque pays la valeur créé chez lui. Chaque Etat taxerait cette part uniquement et cette part complètement. Mais le problème est qu’il n’existe pas de théorie de la valeur sur laquelle cette estimation juridique pourrait reposer. Pour mieux s’en rendre compte, il peut être utile de réaliser un petit détour vers l’histoire de l’analyse économique pour comprendre comment ont été modélisées différentes théories de la valeur au cours des deux derniers siècles.

    La théorie de la valeur travail

    Chez les auteurs classiques (de Smith 1776 à Marx 1867 pour fixer les idées) la théorie de la valeur a été construite sur deux points : un paradoxe et une notion d’arbitrage dans la décision de production. Le paradoxe est celui du diamant (qui est très cher mais peu utile) et de l’eau (qui est très utile mais bon marché) de Smith, qui justifie le fait que la théorie de la valeur ne peut pas être bâtie sur des considérations liées à l’utilité de la consommation. Ainsi, seules les conditions productives définissent la valeur d’une marchandise. La notion d’arbitrage dit que pour que différents biens soient produits et échangés, il faut que des individus mettent leurs ressources productives dans la production des premiers et d’autres dans la production des seconds, soit que les rendements de cet investissement de ressources productives soit le même pour les deux productions (sinon tout le monde déciderait de produire la marchandise au meilleur rendement). Or comme in fine les ressources productives sont toutes d’une manière ou d’une autre du travail (il a bien fallu produire le capital avec du travail et des outils, eux-mêmes produits avec du travail et…), c’est bien la quantité de travail total nécessaire à la production qui définit la valeur d’une marchandise : c’est la théorie de la valeur travail (pour plus de détails, voir les sections 1 des chapitres 2, 3 et 4 de mon cours d’histoire de la pensée économique.

    D’une certaine manière, il s’agit d’une forme de théorie via le coût de production, mais celle-ci a du mal à expliquer un certain nombre de phénomènes observés dans les prix et les salaires. Notamment, cette théorie, appliquée au prix de la force de travail achetée comme une marchandise conduit naturellement à considérer le salaire comme égal à la quantité de travail qu’il faut pour produire de la force de travail, c’est-à-dire à la quantité de travail qu’il faut pour faire survivre un travailleur, soit la force de travail pour produire la subsistance d’un travailleur : le salaire est donc égal au niveau de subsistance. Or, les salaires réels ont commencé à grandir sensiblement à partir de 1840 en Grande-Bretagne (après la Engels’ pause démontré par Bob Allen) et à partir de 1870 en France (après la Zola’s pause montrée par le même Bob Allen, voir les fichiers excell des salaires réels en Europe. Non seulement cela remet en cause une partie des résultats de la théorie de la valeur travail, mais en plus cela ouvre l’intérêt de l’étude des décisions de consommation. Tant qu’un individu n’a qu’un revenu de subsistance, il achète sa subsistance et c’est tout ; quand il lui reste du revenu après s’être rassasié, il peut allouer ce surplus selon ses goûts, ses préférences, l’utilité que lui apporte la consommation de ses achats.

    La révolution marginaliste

    Alors (et pour bien d’autres raisons aussi, dont le remplacement d’une théorie classique accaparée par ses développements Marxistes), la notion d’utilité de la consommation a fait son retour dans l’explication des prix avec l’analyse marginaliste initiée aux débuts de la décennie 1870. Il s’agit maintenant d’un arbitrage marginal, sur les dernières unités consommées de chaque bien, conduisant in fine à égaliser le rapport utilité/prix de chacune de ces dernières unités consommées. Si en plus on suppose que les entreprises sont en concurrence pure et parfaite, le prix est aussi égal au coût marginal de production. On a alors réconcilié l’explication du prix par le coût de production ou par l’utilité de la consommation puisqu’en fait on produit une quantité de bien telle que l’utilité de la consommation de la dernière unité produite (la moins utile de toutes) est exactement égale au coût de sa production.

    Tout cela est magnifique mais en général on n’est pas en concurrence pure et parfaite, et alors, si l’égalité du prix avec l’utilité marginale de la dernière unité produite persiste, ce prix reste au-dessus (potentiellement bien au-dessus) du coût marginal de production. Ceci peut d’ailleurs être une nécessité pour couvrir des coûts fixes importants liés par exemple à l’innovation. C’est donc particulièrement le cas de productions liées à la propriété intellectuelle des innovations. Comme les utilités marginales, subjectives et individuelles, n’ont aucune raison d’être mesurables (à part par inférence à partir des décisions de consommation), il est compliqué si ce n’est impossible de déterminer théoriquement et encore moins administrativement le juste prix d’un maillon de la chaîne de production.

    [retour ; haut de page]

    Le Capital et son singe, critique théâtrale par un économiste

    14 octobre 2014

    Encore si jeune, ce blog inaugure une nouvelle rubrique, celle de la critique théâtrale. Et pour cause. Quand le théâtre se mêle d’économie, les économistes doivent se mêler de théâtre. Je suis récemment allé voir la pièce « Le Capital et son singe » au théâtre de la colline à Paris. Tout d’abord, je tiens à préciser que j’ai beaucoup aimé, et je vais tenter de vous dire pourquoi, en espérant que cela vous donne l’envie d’aller voir cette pièce. Fidèle à la réputation des économistes, qui arrivent après la bataille, qui expliquent après coup pourquoi il y a eu crise, je fais cette critique alors que la troupe vient de donner sa dernière représentation au théâtre de la colline. Mais j’espère qu’elle continuera ailleurs, et que vous aurez l’occasion de la voir. Avant de commenter le cours d’économie marxiste prodigué par cette pièce, il faut bien se rendre compte qu’il n’est qu’une petite partie de l’intérêt de celle-ci : c’est aussi une pièce sur la politique et la stratégie révolutionnaire, ainsi que sur l’histoire bien évidemment ; et c’est avant tout une pièce de théâtre, une fiction.

    Avant tout du théâtre

    Les trois heures que durent cette pièce, et qui passent si vite, apportent par touches des informations politiques, historiques et économiques, dans un cadre de fiction qui permet la fluidité des thèses. C’est un mélange d’improvisation, de burlesque et de poésie surréaliste. La mise en scène est simple et épurée. Dans un décor minimaliste - des tables, des chaises et ça et là les accessoires qui seront à un moment ou à un autre utiles à la narration – les acteurs ont un jeu simple et efficace, suffisamment joué pour faire entrer le spectateur dans le scène mais suffisamment direct pour surtout mettre en valeur le texte. Car c’est avant tout un jeu sur les textes, sur les mots, sur les idées. Les effets de scène, rares mais utiles, ont clairement pour but de service ce texte. N’en déplaise à ma belle-mère, le texte n’est pas ici un alibi à la performativité du jeu des acteurs, il n’est pas has been, il est le centre et le but. On peut cependant regretter que le débit dépasse parfois les capacités acoustiques de la salle dans sa disposition « scène au centre » et que quelques (rares) parties de tirades échappent à nos oreilles pourtant attentives.

    Tout comme le texte, les personnages sont riches. Leur caractère très marqué, bien dépeint par touches plus ou moins fines, les rend à la fois drôles et attachants. Chacun est une caricature, et le nombre et la diversité de ces caricatures permettent une grande variété d’interactions, que ce soient des interactions comiques entre les personnages eux-mêmes ou des interactions entre leurs idées permettant implicitement une analyse par le burlesque des stratégies politiques. On peut même noter des continuités de caractères entre les différents personnages joués par les mêmes acteurs en 1848 et en 1919. La pièce est donc une mise en vie d’un texte, grâce à un sens du dialogue mordant : on rit énormément, aussi bien des mots, des situations, que des caractères des personnages auxquels on s’attache de plus en plus au fur et à mesure de la pièce.

    Plus historique et politique qu’économique

    Sur le fond, deux époques sont dépeintes, avec leurs atmosphères particulières. Après une introduction dont je cherche encore l’intérêt, le début de la pièce se passe dans un « club » politique dans l’intervalle entre février et juin 1948, entre l’espoir de la révolution contre la monarchie et le début de la prise de pouvoir par Louis-Napoléon Bonaparte. On y retrouve entre autres Auguste Blanqui, Armand Barbès, François-Vincent Raspail, Louis Blanc et Alexandre Martin dit l’ouvrier Albert et Charles Baudelaire. A travers les débats sur la tactique politique à adopter, on y retrouve l’histoire de cette période du point de vue des socialistes. Après l’enthousiasme de février et la déception des élections de la constituante, les socialistes tentent de reprendre vie en préparant leur stratégie dans ces clubs. On y retrouve tous les grands thèmes des débats internes à la gauche : l’intérêt de collaborer avec une assemblée de républicains modérés, la réalité des solutions à travers la croissance d’un secteur de coopératives, la possibilité de recréer immédiatement un climat de révolte voire révolutionnaire.

    En particulier, la mise en scène des débats entre les trois membres de l’assemblée – Armand Barbès, Louis Blanc et l’ouvrier Albert - et les autres paraît intemporelle et tellement caractéristique de la gauche radicale : les premiers veulent croire à la possibilité d’incurver le sens de la politique de l’intérieur de la chambre quand les seconds pensent que cette assemblée ne peut être que le jouet de leurs adversaires et que la solution viendra de la rue. De même est exemplaire le dialogue où Louis Blanc tente de convaincre Firmin, un personnage un peu benêt représentant le bon sens populaire au milieu de cette assemblée d’intellectuels parisiens, de la grandeur et de l’avenir de ses ateliers sociaux pour résoudre progressivement et en douceur les problèmes du capitalisme. A travers son scepticisme naïf plus qu’à travers une véritable analyse de socialiste scientifique, Firmin traduit la critique de Marx et d’Engels contre les socialistes utopiques. Depuis la « misère de la philosophie » du premier et « l’anti-Dühring » du second, on a l’impression que le débat renait sans-cesse sans apprentissage du passé et on se dit qu’on ferait bien de relire ces deux œuvres (et quelques autres) avant de s’enthousiasmer sur l’économie sociale et solidaire.

    Le deuxième grand tableau évoque l’Allemagne de Weimar, dans ses débuts, juste après avoir écrasé la révolte spartakiste. On y retrouve la peur d’une société à reconstruire sur les ruines des accords de Versailles et l’espoir de l’annonce du progrès et de la production industrielle de masse. On y parle de voitures pour le peuple et de chaînes de production. On y rit aussi beaucoup devant la description de Paris et des parisiens par une bourgeoise berlinoise.

    Surtout, ces deux grands tableaux, comme ne manquera pas de le rappeler le troisième évoquant le procès de Bourges de 1849, suite logique et historique du premier tableau, représentent deux grandes périodes de révoltes socialistes et deux grands échecs de ces révoltes. Mais pas n’importe quels échecs, il s’agit d’échecs provoqués par la répression de la part non des monarchistes, des capitalistes ou des fascistes, mais bel et bien des sociaux-démocrates, une répression démocratique et non moins sanglante. C’est une pièce sur l’hétérogénéité et la fracture à l’intérieur de la gauche, comme il apparaît à la fois d’un point de vue d’ensemble dans les deux périodes représentées et leurs fins tragiques et comme il apparaît dans le détail des débats à l’intérieur du club de Blanqui et du salon berlinois.

    L’analyse économique de Marx

    Et donc, au milieu de cette fresque historico-politique, la troupe a introduit un cours d’économie marxiste. C’est d’abord le personnage de Firmin qui sert de sujet au cours donné par l’ouvrier Albert et par Armand Barbès. Dans une première scène, ils exposent la théorie de la valeur travail incorporée. Plus tard, ils exposent la théorie de la plus-value et de l’exploitation, avec la mention que l’exploitation ne consiste pas à payer des salaires « anormalement » bas, mais bien que la « juste » valeur de la force de travail dans une société capitaliste conduit de fait à l’exploitation de l’ouvrier par le capitaliste car sa force de travail est considérée comme une marchandise, et payée au juste prix de cette marchandise (pour plus de détails, voir mon cours d’histoire de la pensée économique, chapitre 4). Ces deux cours sont parfaitement mis en scène, à la fois clairs et didactiques et intégrés de manière très fluide dans la narration globale. Les dialogues sont incisifs, les scènes sont drôles et les cours sont limpides.

    J’ai toutefois deux regrets quant à cet enseignement d’économie, un manque et un trop plein. Le manque se situe en Allemagne, dans la scène sur le fordisme, quand l’ouvrier de l’usine d’automobile discute avec la famille de son patron des progrès productifs du travail à la chaîne. On y parle alors division du travail, et on évoque de loin l’aliénation. Mais on n’entend parler que de division sociale du travail et non de division manufacturière. Or, la différence n’est pas anodine. D'abord parce que la chaîne de montage dont on parle est l'aboutissement de la division manufacturière et non de la division sociale, mais surtout parce que Marx a fortement insisté sur cette différence en critiquant Smith pour sa confusion des deux sortes de divisions : la division sociale partage la production de produits finis - de marchandises échangeables, les fameux échanges entre le boulanger et le cordonnier de Smith - entre divers membres de la société qui sont in fine propriétaires de la marchandise qu’ils échangent et dont l’intermédiation se fait librement sur le marché ; la division manufacturière, quant à elle, divise de manière hiérarchique les tâches productives entre différents travailleurs vendant leur force de travail à l’organisateur de la production mais n’étant jamais propriétaires d’aucune marchandise échangeable hormis leur propre force de travail (pour plus de détails voir le chapitre 2 de ce même cours d’histoire de la pensée économique, la partie II.2.b sur la division du travail). Au plus, cela aurait pu être le prétexte d’un cours sur la différence entre les deux sortes de division du travail, au moins il aurait été souhaitable de ne pas faire la confusion.

    Le deuxième regret concerne le troisième et dernier enseignement, bien moins limpide, inclus bien plus artificiellement dans la narration, et d’une utilité bien moins évidente. On comprend difficilement de quoi il est question : de commensurabilité, dont on parle beaucoup, ou du caractère fétiche de la marchandise, dont on ne parle que tardivement et brièvement. L’épisode sur la commensurabilité parait assez étonnant placé ici en fin de spectacle, puisque Marx fait cet exercice systématique de compréhension de la commensurabilité dans le but de pouvoir justifier la théorie de la valeur travail. Si deux choses qui n’ont a priori rien de commun sont commensurables, c’est qu’en fait elles doivent avoir une propriété commune qui sert de pivot à leur estimation relative. En l’occurrence, la seule caractéristique commune de deux marchandises, c’est d’être le fruit du travail, c’est donc ce travail qui doit être la source de la valeur. Mais comme le cours sur la valeur travail a déjà été donné deux heures plus tôt, celui-ci tombe un peu à plat. En réalité, il sert à introduire un court passage sur le caractère fétiche de la marchandise, qui cache les rapports sociaux violents que nécessite sa production, lui-même servant à amener vers un dernier dialogue sur le retournement de la relation entre le consommateur et la marchandise, qui semble être en fait le véritable objectif de cette digression. Ce dernier dialogue est quant à lui très drôle et bien mené à nouveau et permet donc de conclure la pièce comme on a passé la très grande partie des trois heures précédentes, à rire en réfléchissant, si ce n’est l’inverse.

    [retour ; haut de page]

    Manifeste pour l'analyse néoclassique en sciences sociales

    jeudi 11 septembre 2014

    En ce début d’année, alors que les cours reprennent, je me tiens prêt à expliquer l’intérêt et les apports autant théoriques que pratiques de l’analyse néoclassique à des étudiants parmi lesquels certains n’y voient qu’un discours idéologique quand d’autres y voient une vérité intemporelle. Evidemment, ce n’est ni l’un ni l’autre. Il y a quelques années de cela, j’avais écrit un article paru sur le journal du MAUSS à ce sujet. Je vais m’efforcer de synthétiser ici ma pensée. L’analyse néoclassique n’est pas intrinsèquement une discipline idéologiquement normative, mais des économistes en tant que personnes – et bien plus encore des non économistes – au mieux interprètent, au pire déforment les résultats autour de leurs propres valeurs ou intérêts, camouflant le subterfuge sous un discours prétendument objectif et scientifique. Ces mêmes idéologues pensent ou disent qu’elle constitue une vérité complète et intemporelle. En réalité, l’analyse économique néoclassique positive, consciente de ses limites et du caractère social et non naturel de ce qu’elle décrit, n’est qu’une partie, mais une partie nécessaire, des sciences humaines et sociales.

    Principe de la modélisation

    Il serait illusoire d’espérer qu’une science couvre à la fois tous les niveaux de compréhension des comportements et interactions humaines. Plus particulièrement, l’analyse économique ne peut pas reposer sur une théorie unique de l’action sociale et économique, l’homme est trop complexe pour être intégralement compris par lui-même en une unique modélisation. Mais c’est justement le principe de la modélisation que de chercher à saisir la cohérence au milieu du chaos. Pour ce faire, on simplifie le problème. On met de côté un grand nombre de questions et on se focalise sur un petit nombre pour bien en comprendre toutes les conséquences. On met en place un monde imaginaire ultra-simplifié, centré autour de l’objet d’étude, qui permet de penser des mécanismes, des liens entre des hypothèses et des conclusions. Le principe général est celui de l’induction, du « si… alors ». Le problème est que plus on veut comprendre un mécanisme spécifique dans sa complexité, plus on doit simplifier le reste. Si on veut embrasser le monde entier d’un coup, nos limites cognitives nous forceront à ne le comprendre que très imparfaitement. Il existe en fait une sorte de principe d’incertitude de la modélisation, opposant la précision et la généralité.

    Pour ce qui est de l’analyse néoclassique, de nombreuses définitions ont été données. Une de plus que je pourrais proposer est qu’elle analyse les conséquences des comportements individuels rationnels sur les fonctionnements économiques globaux dans le cadre d’une société capitaliste. On voit clairement une des principales simplifications : on s’intéresse au caractère calculateur de l’homme et on délaisse les déterminants sociaux de ses interactions. Est-ce à dire que quiconque s’intéresse à l’analyse néoclassique nie totalement la possibilité d’interactions sociales non gouvernées par l’intérêt ? Ou défend que l’homme est intégralement rationnel ? Bien entendu non, ce serait confondre l’hypothèse et la conclusion dans le raisonnement scientifique, ou croire qu’une hypothèse, pour être valable, doit forcément être entièrement et toujours vraie. L’analyse néoclassique ne dit pas que l’homme est totalement rationnel mais cherche à déterminer les conséquences en termes économiques de la part de son comportement guidée par sa rationalité. S’il était totalement irrationnel, une telle analyse serait parfaitement inintéressante. Comme l’homme n’est pas uniquement rationnel, l’analyse néoclassique ne dit pas tout. Mais comme l’homme est, j’en suis persuadé, au moins en partie rationnel, elle révèle des mécanismes pertinents et permet de les comprendre, voire d’en anticiper certains.

    Où se trouve réellement l’idéologie ?

    C’est le non-respect de ce principe de modélisation – étudier précisément un mécanisme en simplifiant fortement le reste - qui permet l’utilisation d’une théorie à des fins idéologiques, souvent par le mépris du caractère partiel de l’analyse, par l’oubli du « si » ou par une sur-interprétation du « alors ». Oublier le « si », c’est entre autres oublier que l’homme n’est pas que rationnel, c’est également oublier que les mécanismes décrits ne sont pas universels mais liés à un type précis de société. Cependant, tant que l’on reste dans cette société capitaliste, les résultats néoclassiques révèlent d’importants mécanismes : l’étude d’une société fortement concurrentielle comme l’est la société de production capitaliste justifie l’hypothèse d’homo œconomicus.

    Pour autant, les défenseurs de la théorie de la performativité avancent que c’est la science économique néoclassique qui est responsable de ce monde concurrentiel, elle pousserait l’homme à se comporter comme un homo œconomicus. Certes, il existe bien souvent un effet réciproque d’une science sur son objet d’étude, et ce d’autant plus quand il s’agit d’une science sociale avec prétentions normatives. On peut d’ailleurs effectivement trouver des exemples d’une telle performativité de l’analyse économique dans des cas bien précis et limités. Pour autant, ce serait donner bien trop de poids aux économistes que de croire que c’est par leur seule pensée qu’ils ont fait se réaliser cet univers concurrentiel. Il n’y a qu’à lire les pionniers des premières constitutions françaises et américaines au XVIIIème siècle pour être persuadé que la construction de cette société de production capitaliste basée sur l’individualisme et les interactions médiées par les marchés n’a pas attendu la modélisation de l’homo-œconomicus (et a même été réalisée grâce à des hommes rationnels très conscients de leurs intérêts).

    Parallèlement, on trouve aussi beaucoup d’idéologie dans l’interprétation de la conclusion. Il est en effet compréhensible qu’un auteur tente de réinterpréter les résultats au regard de ses valeurs. Mais cela conduit bien souvent à des confusions et des sur-interprétations. Un des meilleurs exemples est le fameux théorème du bien-être. Outre le périmètre de validité qui est bien souvent élargi à tort, ce théorème ne dit ni plus ni moins que si toutes les hypothèses sont respectées, l’équilibre de marché constitue une allocation des facteurs et des produits vérifiant le critère de Pareto, ce qui ne veut absolument pas dire que cette situation soit souhaitable. Le passage « d’optimum de Pareto » à « situation souhaitable pour la société » réside bien souvent dans une méconnaissance profonde du concept d’optimum de Pareto, et s’avère probablement très utile à certaines idéologies. Il n’en demeure pas moins que le théorème du bien-être ne dit absolument pas que la situation émanant de la libre concurrence est la situation économique socialement souhaitable.

    Par ailleurs, la médiatisation des résultats nécessite une forme de vulgarisation, de simplification, qui peut également être le creuset d’un discours idéologique. Par exemple, ce document de travail tente de regarder la distribution de l’impact des baisses de prix grâce au commerce international. Il trouve qu’en moyenne les prix des paniers de consommation des ménages modestes sont plus impactés à la baisse que ceux des plus aisés. C’est une étude très intéressante qui donne des informations originales sur un pan peu exploité jusque-là, l’hétérogénéité de l’impact du commerce international sur le pouvoir d’achat à revenu constant. Un point évidemment essentiel pour l’interpréter dans un cadre plus large est de bien se souvenir que c’est « à revenu constant » et le commerce international peut évidemment par ailleurs modifier les revenus des différents ménages, également de manière hétérogène, mais pas avec les mêmes gagnants. Cela n’enlève rien à l’apport de l’étude, si tant est qu’on reste conscient de ses limites d’application. Or, ce document de travail a fait le buzz sur twitter via une promotion par le message suivant : « trade typically favors the poor, who concentrate spending in more traded sectors », certes la fin de la phrase place le contexte, mais le caractère péremptoire du début est trompeur, voire manipulateur.

    Des querelles théoriques inintéressantes, quoique...

    Etant données ces spécificités de la modélisation, on comprend aisément que bien des discussions entre différents chercheurs en sciences sociales consistent en des critiques des hypothèses de modélisation. Ces critiques peuvent être très utiles, mais elles sont malheureusement souvent stériles, consistant juste en une tentative de délégitimation de toute une théorie sur la base de la non-universalité de ses hypothèses. Comme dit plus haut, aucune hypothèse n’est vraie tout le temps et en tout lieu, de telles critiques ne peuvent résulter qu’en un arrêt pur et simple de la modélisation, donc de la compréhension de mécanismes généraux au milieu du chaos. Des critiques plus utiles ne chercheraient pas à exhiber un exemple dans lequel l’hypothèse est fausse, mais d’en bien comprendre les limites pour déterminer les périmètres d’application des résultats. C’est là notamment que les sciences sociales se doivent d’être empiriques et de solliciter tous les outils disponibles - études de terrain qualitatives, analyses statistiques de situations passées ou expérimentations – afin de tester et comparer l’importance et la prévalence des différents effets mis au jour par les différentes théories.

    Dans une telle démarche, l’interdisciplinarité trouve toute sa place. Mais l’interdisciplinarité ne consiste pas forcément à faire une analyse « mixte ». Si chacune des disciplines a simplifié certains mécanismes pour mieux en comprendre d’autres, c’est souvent qu’il n’était pas possible de tout modéliser en même temps. Toutefois, il est très enrichissant que des chercheurs de disciplines différentes, étudiant le même objet sous des angles différents, échangent pour se révéler réciproquement les facettes que les uns étudient et que les autres ignorent. C’est ce que nous faisons régulièrement au sein de l’axe "politiques socio-fiscales", qui comprend des économistes (néoclassiques et keynésiens), des politistes et des sociologues. C’est également ce que nous avons fait avec ma collègue sociologue Nathalie Morel en réunissant des contributions d’économistes, juristes, politistes et sociologues de différents pays pour présenter sous toutes ses coutures la stratégie européenne de développement des services à la personne. Je reparlerai bientôt de cet ouvrage, quand il sera sorti.

    [retour ; haut de page]

    Dividendes record ou l’utilisation des chiffres sans les comprendre

    24 août 2014

    Depuis quelques jours et la publication par HGI de son index sur les versements mondiaux de dividendes au second trimestre 2014 par les plus grandes entreprises cotées, quel homme politique (de gauche) n’a pas tweeté l’information en faisait le lien avec le pacte de responsabilité voire en insinuant que c’est le CICE qui est reversé aux actionnaires ? De nombreux journaux ont relayé l’information et libération en a même fait sa une - « dividendes, l’indécence » - et consacré ses pages 2 à 5 à ce sujet le 20 août. A chaque fois, des chiffres bruts sont donnés, nombre de points d’exclamations sont utilisés, mais l’explication reste pour le moins superficielle. Chacun préfère prétendre que cela constitue la preuve qu’il avait bien raison et qu’il nous l’avait bien dit. J’ai pour ma part critiqué la TVA sociale et le CICE (ici puis ici) et plus globalement de la stratégie française de baisse du coût du travail peu qualifié (ici). Je ne manque pas non plus une occasion de rappeler les principes de l’incidence fiscale (ou de l’incidence des allocations) : les payeurs finaux (où les bénéficiaires finaux) ne sont pas ceux décidés par le législateur mais les coûts (et les bénéfices) sont en fait redistribués sur les différents marchés. Pour autant, les informations révélées sur les dividendes ne sont absolument pas suffisantes pour pouvoir les utiliser ne serait-ce comme illustration de tout cela, et une étude à peine plus approfondie montre encore une fois comment on peut facilement faire mentir des chiffres quand personne ne cherche réellement à les comprendre.

    Présentation des chiffres

    Quels chiffres ont été donnés et commentés ? Au second trimestre 2014, les plus grosses entreprises cotées ont augmenté leurs versements de dividendes par rapport au second trimestre 2013. La plus grande hausse a eu lieu en France (+30%) et la France détient aussi la palme en niveau (40,7 milliards de dollars) si on se restreint à l’Europe (y compris UK). Plus globalement, l’augmentation en Europe (hors UK) est plus forte qu’aux Etats-Unis et au Royaume-Uni. Les pays émergents, pourtant en plus grande croissance que l’Europe, connaissent une diminution. Enfin, ce sont avant tout les grands groupes financiers qui ont guidé cette augmentation. Je ne prétends pas pouvoir comprendre et expliquer intégralement ces chiffres quelques jours seulement après leur parution, mais je peux rapidement donner quelques éléments qui montrent que l’interprétation qui a buzzé est probablement fausse.

    Un premier point rapide de mise en perspective : le PIB français était de l’ordre de 2054 milliards d’euros en 2013, soit 2728 milliards de dollars au moment où j’écris (ça ne devrait pas varier énormément pour 2014). En prenant « à la louche » un taux de 10% de reconstitution du capital et un rapport deux tiers/un tiers entre les revenus du travail et du capital, on trouve des revenus du capital de l’ordre de 800 milliards de dollars annuels. Les dividendes dont on parle représentent donc moins de 5% de la rémunération annuelle du capital en France. Les +30% - en valeur absolu de l’ordre de 9 milliards de dollars - n’en représentent quant à eux qu’à peine plus d’un pourcent. Il suffit donc qu’un pourcent de cette rémunération annuelle soit déplacé d’autres formes à du dividende des grands groupes, ou reporté des trois autres trimestres sur le second, pour générer ces résultats.

    Grande variabilité des dividendes et de leur période de versement

    Pour se faire une idée un peu moins floue, il faut aller voir le rapport de HGI dont sont tirés les chiffres, ainsi que les deux rapports précédents, donnant les chiffres équivalents pour le premier semestre et les années complètes précédentes. Le premier constat frappant est celui d’une grande variabilité des versements de dividendes. Les différentes régions du monde dépassent régulièrement les +100% et les -100% quand on compare les mêmes trimestres d’une année sur l’autre. Cela relativise singulièrement le +30% français, surtout après deux années de baisse ou stagnation : les dividendes français du second trimestre 2014 restent de près de 12% inférieurs à ceux du second trimestre 2011, alors que par exemple l’Allemagne a dépassé son chiffre de 2011 et plus crû que la France depuis 2009 ; les Etats-Unis, le Royaume-Uni et la plupart des pays émergents ont connu une croissance continue depuis 2009, en moyenne bien plus forte que la France.

    De plus, si on compare les premiers et deuxièmes trimestres des six dernières années, on s’aperçoit que les grands groupes français ne versent quasiment rien au premier trimestre quand les britanniques versent environ la moitié de ce qu’ils versent au second et les américains environ le même montant au premier et second trimestres. Les Etats-Unis versent moins du quart de leurs dividendes annuels au second trimestre et le Royaume-Uni environ le tiers quand la France verse plus de la moitié. Cela relativise encore le fait que la France « batte » le Royaume-Uni au second trimestre. Si on additionne les deux premiers trimestres de 2014 (ce qui, pour les années précédentes, représentait nettement moins de la moitié des dividendes annuels pour les Etats-Unis, sensiblement moins pour le Royaume-Uni et près des trois-quarts pour la France), les grands groupes français ont versé 43 milliards de dollars, les britanniques 81,8 et des américains 177,9 (sachant que la Grande-Bretagne a un PIB inférieur à la France et les Etats-Unis six fois supérieur). Le titre de « champion du monde des dividendes » décerné à la France semble donc être assez artificiel.

    Il n’en reste pas moins que les dividendes des grands groupes mondiaux continuent leur augmentation par rapport à la première année prise en compte dans ces rapports de l’HGI. Ce rattrapage est-il trop rapide ? Trop lent ? Le niveau lui-même (depuis bien avant 2009) est-il trop élevé ? Ces questions sont pertinentes mais aucun chiffre présenté ces derniers jours, pas plus que ceux que j’ai pu trouver dans les rapports d’HGI, ne donnent d’indication sur ces questions. Tout ce que l’on peut dire en données annuelles, c’est que la croissance des dividendes des grands groupes depuis 2009 a été très nettement inférieure en Europe (hors UK) qu’ailleurs (y compris les émergents) et qu’à l’intérieur de l’Europe, les dividendes ont stagné pour la France depuis 2009 (à part une forte hausse en 2011 et une hausse probable à venir en 2014) alors qu’ils ont augmenté dans la plupart des autres pays, y compris en Allemagne (tout en restant inférieurs à la France).

    Les profits des financières à l’étranger

    Un autre point important, qui a d’ailleurs été soulevé par Libération, est que la hausse (et le montant) des dividendes des grands groupes français au second trimestre est quasi-exclusivement porté par des groupes financiers (banques et assurances) dont les profits permettant les dividendes ont principalement été réalisés à l’étranger. Il est sûr que de ce point de vue-là, le lien avec le CICE semble se distendre particulièrement. Cela n’empêche évidemment pas de s’interroger sur ces profits et ces dividendes : il y a sûrement beaucoup à dire et à débattre, dont des choses intéressantes, mais le raccourci avec les politiques actuelles est pour le moins artificiel. Pour ne pas tomber dans des erreurs de simplicité, je ne ferai pas cette analyse que j’espère lire prochainement de la plume d’économistes ou de journalistes plus compétent que moi sur ce sujet, mais je me permettrai tout de même deux petites réflexions, ou plutôt deux petites questions pour indiquer dans quelles directions j’aimerai être informé sur ces sujets.

    Pour ce qui est du fait que les financières françaises se portent bien et font des profits conséquents à l’étranger, il est intéressant de savoir de quelle manière. L’argument classique des méchantes entreprises financières qui spolient les gentilles entreprises industrielles se verrait ici dans un cadre international, avec les françaises spoliatrices et les étrangères spoliées. Ceci pourrait être une des raisons pour lesquelles la France « supporte » relativement bien son déficit commercial : il est financé par ses avoirs étrangers. C’est évidemment une caricature simpliste, mais il y a partiellement du vrai. La France peut consommer plus de biens des pays émergents qu’elle n’en exporte parce qu’elle a des revenus (financiers) lui provenant de l’étranger (probablement partiellement tirés des chiffres d’affaires des entreprises qui vendent en France et constituent le déficit commercial français).

    Bien sûr, ceci est une vue agrégée et ceux qui bénéficient des dividendes des financières ne sont pas ceux qui cherchent un emploi en France. On pourrait défendre alors qu’il faut rapatrier ces investissements étrangers pour produire plus en France et importer moins. Au niveau des ménages, les effets seraient loin d’être évidents ni homogènes en termes de perdants et de gagnants (qu’on retrouverait probablement à l’intérieur même de chaque groupe social) car si ce sont certainement les travailleurs les moins qualifiés qui pâtissent le plus de la concurrence étrangère, ce sont aussi eux qui en bénéficient le plus en termes de hausse de pouvoir d’achat via la consommation de produits bon marché (comme le montre un récent document de travail du NBER). Cette question mérite certainement plus d’investigation, à commencer par une revue de la (riche) littérature.

    Distribuer aux actionnaires ou réinvestir ?

    Enfin, une des questions importantes concerne l’utilisation des bénéfices des sociétés. Ceux-ci peuvent être diminués en augmentant les salaires, réinvestis en vue de création de valeur future ou distribués aux actionnaires. Encore une fois, le débat est certainement plus complexe qu’il n’y parait. Si je pense que le manque de fonds propres (et donc de marges) est loin d’être l’unique raison du manque d’investissement des entreprises françaises - surtout depuis la lecture du convainquant article de Kremp et Sevestre sur la faiblesse des contraintes de crédit des entreprises françaises pendant la crise (la version document de travail est en libre accès ici) - je pense que cette importante distribution de dividendes n’est qu’indirectement liée à ces problèmes. N’oublions pas qu’il s’agit d’entreprises financières et regardons dans quoi elles auraient pu investir. Probablement pas massivement en capital matériel ou en plus de recherche et développement : je doute que les commentateurs des chiffres d’HGI avaient en vue plus d’investissement dans le High Frequency trading ou l’invention de nouveaux produits exotiques complexes. Il se serait agi d’investir dans la production à travers le financement d’entreprises industrielles.

    On en revient alors à la question essentielle : est-ce que la raison du sous-investissement des entreprises industrielles vient du fait qu’elles n’arrivent pas à se financer car les financières préfèrent verser des dividendes à leurs actionnaires, ou est-ce que le financement est si faible (et peut-être le cash des financières si important) parce que les industrielles sont frileuses à investir. Concernant les PME françaises indépendantes, l’article cité plus haut (Kremp et Sevestre) semble indiquer que c’est plus un manque de demande de crédit des entreprises qu’un rationnement de l’offre de crédit qui a causé la chute de l’investissement pendant la crise. Si la décision des financières de réinvestir ou de distribuer joue certainement un rôle, comme joue aussi un rôle le niveau de fonds propres des industrielles, il semble qu’une grande partie du manque d’investissement des entreprises françaises vienne d’ailleurs. Etudier en profondeur cette question (ou parler de ceux qui le font) est certainement plus utile que rabâcher des poncifs sur le manque de marges des entreprises industrielles ou la rapacité des entreprises financières.

    [retour ; haut de page]

    Enseignement : compréhension des mécanismes ou injonction normative ?

    27 juillet 2014

    En tant qu’enseignant, je cherche à expliquer et faire comprendre les raisonnements, les liens entre les hypothèses et les résultats. J’insiste sur le fait que les hypothèses ne sont jamais totalement vérifiées et que les résultats ne sont donc pas à prendre au pied de la lettre. Ce ne sont pas des vérités éternelles mais plutôt des tendances plus ou moins fortes selon la pertinence des hypothèses, dans le cadre de chaque situation considérée. Ceci doit conduire non seulement à ne pas idolâtrer un modèle et relativiser ses résultats, mais inversement à ne pas rejeter complètement tout résultat de modèle dont on ne serait pas pleinement et intégralement d’accord avec les hypothèses, des mécanismes intéressants peuvent en être inférés.

    Je ne prétends pas que ce message est toujours totalement saisi mais j’espère qu’il est au moins partiellement compris. De ce point de vue, j’ai assisté le mois dernier à la présentation d’un article qui pourrait être démoralisant. Lors des 13èmes journées d’économie publique « Louis-André Gérard-Varet » à Aix-en-Provence, Douglas Bernheim de l’université Stanford en Californie a présenté une étude portant sur les modifications de comportement suite à un cours de base de finance. Une large littérature existe sur les connaissances en matière de finances et les choix d’investissement et de consommation. L’idée principale que sous-tend cette littérature est que les individus ne sont pas capables de se rendre compte réellement des gains de l’épargne et de ce fait n’épargnent pas assez. Quand ils reçoivent l’enseignement adéquat, ils corrigent leurs choix à la hausse, épargnent plus et s’en trouvent plus heureux.

    En particulier, un des points centraux de ce courant de « l’illettrisme financier » est que les individus ne comprennent pas l’intérêt composé : lorsqu’on place 100 euros à 10% par an sans jamais rien retirer, l’avoir total n’est pas de 200 euros au bout de 10 ans mais d’un peu plus de 259 euros (soit un revenu de près de 160 euros et non de 100 euros). En effet, l’avoir après un an est de 110 euros (100 de capital initial et 10 d’intérêts). Les intérêts de la seconde année sont donc 10% de 110 soit 11 euros et l’avoir après deux ans de 121 euros (et non 120). Les intérêts de la troisième année sont donc 10% de 121 soit 12,1 euros et l’avoir après deux ans de 133,1 euros (et non 130). Après plusieurs années, l’écart peut être important si on ne pense pas au caractère composé des intérêts (il ne faut pas oublier les intérêts sur les intérêts). L’hypothèse centrale de cette littérature est que les individus, du fait de leur illettrisme financier, sous-évaluent les gains de l’épargne et épargnent moins qu’ils ne souhaiteraient eux-mêmes (s’ils savaient réellement combien cela leur rapporterait).

    Le protocole expérimental

    Douglas Bernheim et ses coauteurs ont donc mis en place un protocole expérimental pour tester cette hypothèse. Ils ont ouvert un questionnaire sur internet où des individus pouvaient répondre à un certain nombre de questions pour gagner de l’argent. Les gains monétaires servaient à motiver les participants en créant un enjeu vénal réel. Ils devaient répondre à des questions de deux sortes impliquant leurs gains finaux. Le premier type de questions consistait à leur demander de choisir entre une somme d’argent payable immédiatement et une somme (supérieure) payable 36 ou 72 jours plus tard. Cela consiste en une forme d’épargne dont les gains sont totalement transparents (question sans calcul) et sert à étalonner les préférences des individus en termes d’épargne (être payé immédiatement ou davantage mais à distance). Le second type de questions consistait à choisir entre une somme immédiatement payée ou le paiement 36 ou 72 jours plus tard du résultat du placement de cette somme à un taux d’intérêt journalier donné (question avec calcul). Le questionnaire contenait suffisamment de questions pour que les individus ne fassent pas de liens directs entre les questions équivalentes des deux types. La comparaison des réponses aux questions équivalentes des deux types permet de mesurer « l’erreur » d’épargne du fait du fait de mauvais calculs des gains réels.

    Les résultats de ces erreurs d’épargne sont comparés pour quatre groupes de cobayes. Les expérimentateurs ont utilisé le module vidéo du manuel de principes de finances le plus courant dans les premiers cycles universitaires américains. Un premier groupe de cobayes (groupe de contrôle, A) s’est vu diffuser en vidéo un chapitre sans rapport avec les questions de taux d’intérêts. Un second groupe (groupe de traitement classique, B) a visionné le chapitre sur le principe de l’intérêt composé. Ce chapitre des principes de finances a ensuite été coupé en deux parties. Un groupe a visionné uniquement le corps du chapitre ne comportant que l’explication du mécanisme et une méthode de calcul simplifié, à savoir la méthode des 72 (groupe de traitement mécanisme, C). Enfin, les derniers cobayes n’ont regardé que l’introduction et la conclusion du chapitre sur l’intérêt composé, comportant des injonctions normatives sur la puissance de l’intérêt composé et la sous-épargne habituelle des individus qui le négligent (groupe de traitement normatif, D).

    La règle des 72 est une méthode simplifiée pour évaluer facilement les gains de l’épargne. Elle consiste à utiliser comme référence le fait qu’un capital placé à X% double au bout de 72/X périodes. Ce n’est qu’une approximation (voir l’annexe pour la démonstration et la précision de cette méthode), mais elle permet de se faire une bonne idée rapidement. Placé à 2% par an, un capital double au bout de 36 ans et quadruple au bout de 72 ; placé à 4%, il double en 18 ans, quadruple en 36 et est multiplié par 8 en 72. On comprend d’ailleurs le lien entre l’explication de cette règle et le fait que les questionnaires donnent le choix entre des sommes d’argent immédiatement ou 36 et 72 jours plus tard (les placements sont effectués avec des taux d’intérêts journaliers).

    Les résultats

    La présentation des résultats commence par le groupe de contrôle, sans formation particulière. En moyenne, les individus de ce groupe A ont une épargne nettement plus faible pour les questions avec calcul que pour les questions sans calcul. En revanche, les moyennes des épargnes avec et sans calcul pour l’ensemble des individus du groupe B sont très similaires. Ceci conforte les postulats de la littérature sur l’illettrisme financier, à savoir que les individus sous-épargnent en moyenne du fait de difficultés à évaluer correctement les gains de l’épargne mais corrigent leurs actions après avoir suivi un enseignement adéquat. Tout va pour le mieux dans le meilleur des mondes : introduisons des cours de finances de base dans tous les cursus d’enseignement et tout le monde sera plus heureux !

    Malheureusement, tout n’est pas si facile, et la théorie de l’illettrisme financier ne tient qu’à un fil. Il ne suffit pas que la moyenne des épargnes effectives soit égale à la moyenne des épargnes souhaitées pour que tout le monde soit heureux. Si la moitié de la population continue à sous-épargner quand l’autre moitié épargne plus qu’elle ne le souhaiterait en réalité, tout le monde est malheureux. Il convient donc de savoir si la diminution de l’écart d’épargne du groupe B par rapport à celle du groupe A a eu lieu grâce à une augmentation uniquement de ceux qui sous-épargnaient ou également de ceux qui épargnaient en accord avec leurs préférences (voire sur-épargnaient). Or, en regardant non pas la moyenne des écarts mais la moyenne des valeurs absolues des écarts (les sur-épargnants ne compensent plus les sous-épargnants en moyenne), il s’avère que la présentation de la vidéo n’améliore pas la situation. La moyenne des distances (valeurs absolues des écarts entre épargne sans calcul et épargne avec calcul) est aussi importante pour le groupe B que pour le groupe A.

    Ce résultat est en soit assez décevant, car si la moyenne d’épargne augmente, ce n’est pas du fait de l’augmentation de ceux qui épargnaient moins que ce qu’ils souhaitaient mais aussi du fait de l’augmentation d’épargne de ceux qui épargnaient suffisamment (ou déjà trop) et qui se retrouvent donc en sur-épargne. Il convient de comprendre d’où vient ce résultat, ce qui peut être fait en regardant les groupes C et D, qui ont vu uniquement des parties de la vidéo d’enseignement, les fragments respectivement expliquant les mécanismes ou donnant des injonctions normatives. Il s’avère que les individus du groupe C se comportent comme ceux du groupe A : regarder l’explication des mécanismes, c’est comme voir quelque chose qui n’a aucun lien. A l’inverse, les individus du groupe D se comportent comme ceux du groupe B : les cobayes ayant eu accès à l’ensemble du cours n’ont retenu que la partie normative, sans rapport avec leur situation propre. Cela explique pourquoi le court complet n’améliore pas la situation personnelle des individus même s’il semble améliorer la situation en moyenne : chacun, ne répondant qu’aux injonctions normatives, a augmenté son niveau d’épargne avec calcul, qu’il soit originellement trop bas ou pas.

    Conséquences

    Conclusion, les cobayes de Bernheim ne modifient pas leur comportement en fonction de la compréhension des mécanismes et de l’adaptation de ces mécanismes à leur cas personnel, ils se contentent de modifier leur comportement en accord avec des injonctions normatives basées sur des résultats moyens, même si cela ne s’applique pas à eux en particulier. D’une part, cela montre la puissance de propagande que constitue l’enseignement, même présenté comme ouvrant l’esprit à la compréhension du monde. Ceci doit probablement être étendu bien au-delà de l’enseignement de l’intérêt composé. Si c’est décevant, ce ne doit pas être décourageant pour autant. On peut déjà se redonner de l’allant en tant qu’enseignant en se disant qu’on est capable de faire mieux en un cycle de cours vivant à des étudiants du supérieur qu’en une vidéo de principe passée à un public très large et hors contexte d’apprentissage ; surtout, cela incite à redoubler d’effort pour expliquer les mécanismes et s’assurer qu’ils sont compris, quitte à les réexpliquer de plusieurs manières différentes. Surtout, cette étude doit être reçue comme un avertissement important de bien faire attention de retirer au maximum toute conclusion un peu trop définitive et normative de nos cours, elle risquerait de le polluer en phagocytant les explications des mécanismes fondamentaux.

    Annexe, la règle des 72

    Le principe de la règle des 72 est relativement facile à comprendre, il s’agit d’une approximation. Placer un capital C à un taux de r donne un revenu de rC après une période et donc un avoir de (1+r)C. Si rien n’est retiré, c’est (1+r)C qui est placé avant la seconde période, donnant un revenu r(1+r)C et un avoir de (1+r)2C après deux périodes. En continuant le même raisonnement, l’avoir est de (1+r)nC après n périodes. Il s’en suit donc que placé à un taux d’intérêt de r par période, le capital double après un nombre n de périodes tel que (1+r)n=2. En passant au logarithme, on trouve n.ln(1+r)=ln(2) soit n=ln(2)/ln(1+r) et donc n.r=r.ln(2)/ln(1+r). Or ln(2) est assez proche de 69,3%, reste donc à savoir à combien est égal r/ln(1+r). On voit alors si on a une calculatrice que ce produit du nombre de période et du taux d’intérêt est égal à 69,7 pour r=1%, 70,2 pour r=2,5%, 71,0 pour r=5%, 71,9 pour r=7,5%, 72,7 pour r=10%, 73,6 pour r=12,5% et 74,4 pour r=15%. Ainsi, le produit du taux d’intérêt (en %) et du nombre de période varie relativement lentement avec le taux d’intérêt, ce qui permet d’avoir une règle d’approximation unique pour tous les taux d’intérêt. Pour des intérêts plus réalistes actuellement, il semble que la règle devrait être la règle des 70 plutôt que des 72, mais cela fait peu de différence in fine. Pour ceux qui veulent voir la variation de ce ratio avec le taux d’intérêt, ils peuvent se souvenir de leur cours de mathématiques sur les développements limités de ln(1+x) et de 1/(1+y) quand x et y sont petits : n.r≈ln(2)*(1+r/2) à un élément de l’ordre de r² près.

    [retour ; haut de page]

    Salaire minimum, emploi et manipulation

    12 juillet 2014

    Depuis plusieurs jours fleurissent sur twitter des messages se réjouissant que les « Les Etats (US) ayant augmenté le salaire minimum ont créé plus d’emploi que les autres ». S’ils sont attaqués, les auteurs pourront se défendre qu’ils n’ont absolument pas dit que la différence avait la moindre significativité statistique, et encore moins que cela reflète un lien causal. Il n’empêche que la formulation vise clairement à faire croire à ce lien causal, ou pour le moins à convaincre que le lien causal opposé (le SMIC tue l’emploi) est faux. Le fait que cette seconde assertion soit loin d’être aussi nette que certains veulent bien le dire et que les défenseurs de la suppression du SMIC emploient souvent des manipulations au moins aussi grotesques ne justifie en rien cette forme de travestissement de la vérité consistant à faire croire qu’on dit (mais sans le dire vraiment) qu’il est prouvé « scientifiquement » que le salaire minimum favorise l’emploi.

    Cette différence de création d’emploi existe-t-elle ?

    Pour bien comprendre le cas d’espèce, il faut tout d’abord aller un peu plus loin que le tweet et regarder les statistiques à la source de ces messages : il s’agit d’une recension par ThinkPogress d’une étude du Center for Economic and Policy Research (CEPR), avec à l’appui ce graphique censé révéler la vérité. Pour ma part, à la vue de ce graphique, je reste autant indécis pour juger la relation entre salaire minimum et emploi que devant un révélateur de hors-jeu pour juger la validité d’un but. Mouai, peut-être… mais enfin bon… En réalité, en regardant ce graphique, chacun se fera une idée en fonction de l’idée qu’il avait avant de regarder ce graphique. « Alors dirons certain, pour être sûr de son jugement, il ne faut pas regarder l’information brute trop confuse mais construire des indicateurs. Le meilleur indicateur consiste à séparer trois groupes d’Etat : ceux qui ont détruit des emplois, ceux qui en ont créés peu (entre 0 et 1 %) et ceux qui en ont créés beaucoup (plus de 1 %). Ensuite, il suffit de prendre chacune des catégories d’Etats (avec ou sans augmentation du salaire minimum) et regarder sa répartition entre ces trois groupes. Cela donne le graphique suivant, aux résultats indiscutables : les Etats qui ont augmenté le salaire minimum ont connu une plus forte augmentation de l’emploi ».

    Mais d’aucuns vont sans doute se plaindre que le choix de l’indicateur n’est pas judicieux, et que « le ventre mou de la création d’emploi, ça créé peut-être des emplois mais ça reste mou. Le ‘vrai’ indicateur est le suivant : un Etat créé ‘vraiment’ des emplois si le taux de croissance est supérieur à 2,5% et il en détruit ‘vraiment’ s’il en détruit plus de 0,5%. Entre les deux, c’est mou et sans intérêt. Par ailleurs, vu la différence de taille de l’échantillon, la bonne méthodologie est la suivante : pour chacun des trois groupes (destruction, mollesse, création), il convient de regarder la part des Etats des deux catégories (avec et sans augmentation du revenu minimum) en proportion de la taille de leurs échantillons. Par exemple, si dans le groupe A, j’ai le quart des Etats de la catégorie 1 et la moitié des Etats de la catégorie 2, alors je dis que ce groupe A est composé au tiers (25%/[25%+50%]) d’Etats de la catégorie 1 et aux deux tiers (50%/[25%+50%]) d’Etats de la catégorie 2. Ceci donne le graphique suivant : Il est donc avéré que le SMIC détruit des emplois. »

    Je rappelle avant de continuer que les deux graphiques sont construits avec la même source de données, le graphique initial du CEPR reproduit par ThinkProgress, sans modifier le moindre chiffre. Mais quelle est donc la réalité ? La réalité est que ces deux graphiques sont d’effroyables manipulations et qu’en réalité ces données ne permettent pas de conclure. Une méthode un peu moins manipulatrice consisterait à regarder les deux ensembles d’Etats et calculer si les moyennes de création d’emploi sont statistiquement différentes. Le test usuel dans ce cas est appelé test de Fisher (étant donnée la très forte similitude entre les écarts types des deux sous-groupes) et révèle que la différence entre les deux moyennes n’est pas significative. Une manière de comprendre l’intuition derrière ce résultat non conclusif est de comparer l’écart entre les deux moyennes – en l’occurrence 0,31% – avec l’écart type de ces échantillons – en l’occurrence le même pour les deux : 0,77%. Ceci veut dire que l’écart moyen entre un Etat et la moyenne de sa catégorie est plus de deux fois supérieur à l’écart entre les moyennes des Etats avec et sans augmentation du salaire minimum. Ces graphiques sont peut-être beaux, mais ils ne révèlent rien.

    Différence entre causalité et corrélation

    Et quand bien même les nombres auraient été différents et l’écart aurait été significatif, qu’est-ce que cela aurait-il bien pu vouloir dire ? Pas grand-chose de plus en réalité. On meurt bien plus souvent dans son lit que dans la rue, est-ce à dire que le lit est bien plus dangereux ? Corrélation n’est pas causalité et il faut bien plus d’éléments pour pouvoir établir une causalité lire ici pour une présentation simple et intuitive mais un peu plus détaillée des méthodes d’évaluations d’impact ). De même, il faut bien plus d’éléments pour pouvoir établir une absence de causalité. Malheureusement, ces données ne prouvent pas plus l’absence d’impact négatif du salaire minimum sur l’emploi. De nombreuses études ont tenté d’estimer cette causalité (avec des résultats différents selon les environnements socio-économiques et les niveaux initiaux de salaire minimum), une revue critique de la littérature peut-être lue ici pour ceux que cela intéresse.

    En fait, un moyen de comprendre pourquoi même une différence significative ne signifierait rien consiste à observer les cas de la France et de l’Allemagne. En 2014, l’Allemagne va créer (ou augmenter selon les branches) un salaire minimum pendant que la France a à peine revalorisé le sien du montant de l’inflation, c'est-à-dire pas grand-chose. Quand on regardera les statistiques, on verra que l’Allemagne a plus crû et a créé plus d’emplois que la France en 2014. Pourra-t-on parler de causalité ? De causalité inverse peut-être, car l’Allemagne, qui a connu une croissance bien meilleure que ses voisins ces dernières années, voit le pouvoir d’achat de ses ménages fortement contraints par une modération salariale depuis 2005. L’idée outre-Rhin est justement qu’il est grand temps de partager cette croissance en remontant les rémunérations les plus basses : c’est parce que les perspectives de croissance et d’emploi y sont bonnes que l’Allemagne augmente sensiblement son salaire minimum.

    Quoi qu’il en soit, l’objet de ce post n’est pas de savoir quel est l’impact réel du salaire minimum sur l’emploi en France, aux Etats-Unis ou en Allemagne (et encore moins s’il est le même dans ces différents pays ou s’il serait le même en proportion pour une grande ou une petite augmentation). Le but est de rappeler qu’il faut autant se méfier des constats trop simples que du fameux « bon sens ». Je ne dis absolument pas « qu’on peut faire dire n’importe quoi aux chiffres », comme on l’entend malheureusement souvent, parce que je pense que c’est fondamentalement faux. En revanche, je pense que certains profitent que beaucoup de personnes ont une relation conflictuelle avec les chiffres pour leur faire croire que les chiffres prouvent ce qu’en réalité ils ne disent même pas : cela s’appelle mentir.

    [retour ; haut de page]

    Mieux vaut taxer la rente immobilière que la production

    Les Echos, 5 novembre 2013, avec Patrick Artus, Antoine Bozio et Cécilia Garcia-Peñalosa

    Dans son rapport sur la fiscalité publié le mois dernier, le Fonds monétaire international suggère aux pays avancés d'utiliser l'imposition de la richesse accumulée, notamment la richesse immobilière, plutôt que les impôts sur la production, pour redresser les finances publiques. La France impose la propriété immobilière via notamment la taxe foncière et l'ISF. Toutefois, vu le très fort taux de prélèvement obligatoire global, on ne peut pas dire que la richesse immobilière soit particulièrement maltraitée par le fisc français. Le travail est beaucoup plus mis à contribution.

    Ce constat rejoint celui qu'a fait le Conseil d'analyse économique dans sa note du mois de septembre : les prélèvements obligatoires sur les revenus du capital sont élevés en France en comparaison internationale, non pas parce que la fiscalité française défavorise particulièrement ces revenus - les revenus du travail sont encore plus fortement imposés - mais parce que le niveau global des prélèvements obligatoires est élevé dans notre pays.

    Un second constat mettait en évidence la forte hétérogénéité des traitements fiscaux des différents revenus du patrimoine en France, allant de 10 % à 60 % d'imposition selon le type de revenu. La France semble avant tout privilégier les investissements dans l'immobilier (tout particulièrement ceux des propriétaires occupants, moins ceux des propriétaires bailleurs) et les assurances-vie, investies largement en obligations publiques, alors même que les investissements productifs sont lourdement taxés.

    On peut bien entendu plaider pour une baisse des dépenses publiques, qui permettrait de réduire la pression fiscale dans sa globalité. Mais même dans l'optique d'une telle baisse, la question de la répartition de la pression fiscale reste posée : faut-il, comme au Royaume-Uni, utiliser largement l'assiette de la propriété immobilière pour équilibrer le budget ? Le FMI répond par l'affirmative à cette question : il vaut mieux taxer la rente immobilière que la production. Les conséquences sur la croissance et l'emploi sont bien plus bénignes. Dans un pays comme la France, où la fiscalité sur le patrimoine immobilier est très hétérogène, cela suggère non pas d'augmenter les taux de prélèvement - les taux normaux sont déjà très élevés - mais plutôt, comme le soutient la note du CAE, d'élargir l'assiette en faisant rentrer dans le droit commun les innombrables exemptions, et en profiter pour abaisser le taux général.

    Pourtant, cette proposition se heurte à de nombreuses oppositions, liées en particulier à l'usage du terme « loyers implicites » pour désigner les revenus des propriétaires occupants. Il faut rappeler que les « loyers implicites » sont bien comptabilisés dans le PIB et le revenu national, et ce, dans tous les pays du monde. Surtout, ces revenus font l'objet dans de nombreux pays d'une fiscalité nettement plus forte qu'en France : les Etats-Unis et le Royaume-Uni, par exemple, ont des impôts sur la propriété considérablement plus lourds que la taxe foncière française; la Suisse, autre pays peu réputé pour son anticapitalisme brutal, impose les loyers implicites directement, comme le faisait la France après-guerre sous le général de Gaulle. Dans ces pays, le fait d'imposer au moins aussi fortement la propriété foncière que l'investissement productif semble une évidence.

    L'attachement des Français à la pierre se comprend : on peut habiter sa maison, pas un portefeuille d'actions. Mais on ne peut à la fois conforter cette préférence par une fiscalité favorable et s'inquiéter du manque d'investissement productif dans notre pays. La rente ou la vitalité économique, il va falloir choisir.

    [retour ; haut de page]

    Pourquoi occuper son propre appartement constitue un revenu en nature

    Les invités de Médiapart, 1er octobre 2013

    Une note récente du Conseil d'analyse économique sur la taxation des revenus du capital a soulevé un grand vent de critiques et d’incompréhensions. La proposition de réduire certaines niches fiscales est apparue comme une nouvelle attaque contre les contribuables, sans que personne ne semble remarquer que réduire les niches permet de diminuer les taux d’imposition. Pour renforcer le sentiment d’incompréhension, certaines dérogations fiscales ne sont pas considérées comme telles par le plus grand nombre.

    Dans ce contexte, la proposition des auteurs de raboter des niches a été comprise comme une offensive pour trouver n’importe quelle nouvelle source de recettes fiscales, n’importe quelle « vache à lait » pour combler les déficits. Alors que la proposition de diminuer l’avantage fiscal sur l’assurance-vie – produit certes populaire mais vu intuitivement comme avantagé fiscalement – n’a soulevé que peu de réactions, celle de revenir sur la défiscalisation des loyers dits « imputés » est visiblement mal passée, tout simplement parce que personne ne considère comme un revenu le service de logement dont il bénéficie lorsqu’il occupe un appartement dont il est propriétaire.

    Pourtant, le Conseil d’analyse économique n’est pas tombé sur la tête. Les propriétaires-occupants disposent bien d’un avantage fiscal par rapport aux épargnants ayant fait d’autres choix d’investissement, par exemple ceux qui ont investi dans leur entreprise ou ceux qui ont acquis des biens immobiliers pour les louer. Les services de logement que les propriétaires-occupants se livrent à eux-mêmes constituent bel et bien une production et un revenu. C’est d’ailleurs le point de vue de l’Insee et des instituts statistiques des autres pays, qui les comptabilisent dans le PIB. Les loyers imputés ont d’ailleurs été incorporés au revenu imposable de la plupart des pays depuis la mise en place de l’imposition des revenus, et ce n’est que récemment que nombre de pays (dont la France en 1965) ont exclu ces loyers imputés de l’assiette taxable. Certains pays comme la Suisse, connue pour sa rapacité fiscale et son déni de la propriété privée, continuent de les imposer.

    En quoi les loyers imputés constituent-ils des revenus ? Reconnaissons que le vocabulaire n’aide pas à le comprendre. Certains parlent de loyers « fictifs », voire de revenu « virtuel ». Or le revenu considéré n’est absolument virtuel, pas plus qu’il n’est fictif. S’il n’est pas monétaire, il n’en est pas moins réel : il ne s’agit pas d’imposer l’usage d’un bien, mais les revenus en nature que constituent les services de logement produits grâce à ce bien.

    La consommation annuelle d’un propriétaire-occupant, qui inclut les services de logement, n’entame en rien la valeur de sa richesse immobilière. C’est donc bien qu’il a produit un « revenu » qui compense la valeur des services de logement « consommés » durant l’année, à un écart près correspondant aux dépenses d’entretien qui sont nécessaires pour maintenir la valeur du bien. Une autre manière de raisonner est de décomposer le bien immobilier en deux parties : l’emplacement (le foncier) et le bâti. Si le bâti s’use à mesure que l’on consomme les services de logement, l’emplacement, lui, ne s’use pas : sa valeur n’est absolument pas affectée par le service rendu. Si l’entretien du bâti doit naturellement être défalqué du revenu en nature tiré de l’occupation du logement, le reste constitue bien un revenu qui peut être imposé.

    Pourtant, l’imposition de biens ou services que l’on produit soi-même pour son propre usage paraît généralement illégitime, notamment parce qu’elle est perçue comme une intrusion intolérable de l’Etat dans les affaires privées. Un exemple célèbre est le cas des impôts sur les alcools. Lorsque Napoléon Bonaparte demanda à son ministre des finances une réforme complète du système fiscal afin de financer l’effort de guerre, celui-ci compléta le système des quatre « vieilles » (les quatre taxes directes instaurées par les révolutionnaires) en recréant une fiscalité indirecte sur la consommation ciblant tout spécialement les boissons alcoolisées. Or, nombre d’agriculteurs distillaient leur production pour leur propre consommation, et le statut des bouilleurs de cru vint défiscaliser la part produite pour soi-même. Bien que modifié à de nombreuses reprises (suite à de violents débats à l’Assemblée), ce privilège a perduré longtemps ; ce n’est qu’à la fin des années 1950 qu’il fut progressivement supprimé. Le droit perdure pour ceux qui l’avaient mais il n’est plus transmissible aux héritiers.

    Pourquoi imposer les loyers imputés et pas d’autres services produits pour soi-même ? La particularité de la détention immobilière vient entre autres de ce que l’Etat peut calculer l’assiette imposable sans s’immiscer dans l’intimité des ménages. La valeur des loyers est une fonction relativement stable de variables observables telles que l'emplacement et la superficie du logement. La valeur locative au mètre carré varie d’ailleurs peu localement, malgré les différences de confort, d'ensoleillement, etc. C’est la preuve qu’il s’agit avant tout d’un droit d’occuper un emplacement, ce qui constitue aujourd’hui la majeure partie du coût du logement.

    Lors de la Révolution française, la fiscalité a été réformée pour dépendre des capacités contributives. Sur les quatre taxes crées, trois étaient directement liées à la valeur du logement (foncière, mobilière et sur les portes et fenêtres), représentative des revenus et facilement observable. Ce n’est que pendant la première guerre mondiale que, pour des raisons budgétaires, on est passé à un système d’imposition des revenus effectifs, non sans débats enflammés sur le « voyeurisme » et le « totalitarisme » d’un Etat sommant les ménages de déclarer leurs revenus. L’estimation de la valeur locative des logements, issue de la révolution, a paru pendant longtemps relativement équitable et moins intrusive que l’imposition des revenus.

    L’autre particularité des services de logement, parmi l’ensemble des biens et services fournis à soi-même, est qu’ils sont produits à partir d’un facteur très spécifique, qui n’est ni le travail ni le capital physique, mais le droit de propriété sur l’espace. Ce facteur ne se produit pas : il se possède et se transmet. Ainsi, ces services ne sont pas une production capitaliste, mais une production pré-capitaliste. Le XIXe siècle a d'ailleurs été marqué par une lutte entre capitalistes et propriétaires fonciers, dont l'épisode le plus célèbre est sûrement celui des corn laws outre-manche. C'est ainsi que la rente foncière était le seul point de convergence entre ouvriers et capitalistes (contre les propriétaires fonciers). Aujourd’hui, le retour en force de la rente mis au jour par Thomas Piketty passe notamment par l’immobilier.

    Il ne s’agit pas de s’acharner sur les propriétaires-occupants, mais de revenir sur un avantage fiscal dont ils bénéficient de facto et qui a des conséquences fâcheuses. Premièrement, cela génère des iniquités de traitement fiscal. Une personne investissant dans de l’immobilier qu’elle habite paiera moins d’impôt qu’une personne investissant autrement (actions d’entreprises ou immobilier locatif) et louant sa propre habitation. Pourtant, ces deux personnes ont la même consommation et le même patrimoine : elles ont la même capacité contributive mais sont imposées différemment.

    Deuxièmement, cette hétérogénéité de traitement fait affluer une grande partie de l’épargne vers le marché immobilier. Or, ce marché est fortement contraint en termes d’offre, et la solvabilité supplémentaire de la demande se traduit par des hausses de prix, de la même manière que les dispositifs dérogatoires de type Scellier ou Duflot contribuent à l’inflation immobilière ou que les allocations logements contribuent à l’augmentation des loyers.

    Troisièmement, une France de propriétaires-occupants expose les individus à des risques supplémentaires. S’il n’y avait pas tant d’avantages fiscaux à la détention de sa résidence principale, les ouvriers de Florange qui ont investi toutes leurs économies dans leur modeste résidence principale auraient peut-être investi à la place dans des produits d’épargne retraite sûrs et n’auraient pas vu la valeur de leur patrimoine dégringoler en même temps qu’ils perdaient leur emploi.

    Par ailleurs, une objection à la taxation des loyers imputés est le fait qu’un revenu en nature ne produit pas la trésorerie pour payer l’impôt. Le problème n’est pas spécifique à cet impôt, mais à toute taxation ne portant pas sur des revenus monétaires, comme l’imposition des stocks de richesse (taxe foncière, impôt sur la fortune). C’est le fameux problème de l’agriculteur rhétais. Mais si les loyers imputés étaient intégrés au barème de l’impôt sur le revenu, une personne ayant peu de ressources hormis son logement verrait ce revenu imposé à un faible taux, correspondant aux premières tranches d’imposition. Compte tenu des charges et frais d’entretien déduits, cela ne constituerait qu’une faible augmentation d’impôt, encore plus faible si les emprunts ne sont pas encore remboursés, les intérêts venant également se déduire du revenu imputé. Sans parler des réductions d’impôts que consentirait vraisemblablement le gouvernement en faveur des propriétaires-occupants les plus modestes.

    Bien entendu, un ménage propriétaire d’un logement de très grande valeur paierait plus cher et se trouverait contributeur net de la réforme. Toutefois, un tel propriétaire a généralement les liquidités pour acquitter son impôt. S’il ne l’a pas, la réforme peut l’inciter à mettre son bien (ou une partie de celui-ci) en location, pour le bonheur d’une famille à la recherche d’un logement à louer.

    Il faut être conscient qu’il n’est pas possible de rééquilibrer un système fiscal déséquilibré sans induire des gagnants et des perdants. La fiscalité est actuellement déséquilibrée, à l’avantage des propriétaires-occupants et, par un effet direct de vases communicants, au détriment des locataires. Cette pénalité fiscale pour les locataires est ce que la note du CAE considère comme injuste et inefficace. La supprimer induit une perte pour les uns, mais un gain pour les autres.

    Une manière alternative de supprimer l’inégalité de traitement entre propriétaires-occupants et propriétaires-bailleurs serait de réévaluer la taxe foncière sur la base de nouvelles valeurs locatives (recalculées annuellement) et, en contrepartie, de détaxer les loyers perçus par les propriétaires-bailleurs. Ainsi, un même bien serait imposé de la même manière selon que son propriétaire occupe le logement, le met en location ou le laisse vacant. Plus simple que l’imposition au barème, cette solution aurait l’inconvénient de traiter de la même manière tous les propriétaires, quels que soient leurs autres revenus.

    [retour ; haut de page]

    Le bien-être du patient ne se compte pas en dépassement d’honoraires

    Les invités de Médiapart, 18 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund

    Le projet de loi de finance de la sécurité sociale envisage d’encadrer les dépassements d’honoraires, ce qui n’a pas tardé à réveiller les contestations. Facebook véhicule ainsi le message général, soutenu et développé par de nombreux syndicats. Le projet notamment porté par l’Inter Syndicat National des Internes Hôpitaux (Isnih) de journée de mobilisation ayant pour mot d’ordre: « Journée de mobilisation: le choix de bien soigner » a connu un succès instantané sur la toile. On tente ainsi de nous faire croire qu’encadrer les dépassements d’honoraires aurait pour conséquence directe la dégradation des soins prodigués aux patients, le tout étant très doctement justifié par le fait que la situation « confortable » du médecin est une nécessité pour la sécurité des patients. Or, tout cela n’est pas fait pour le bien du patient, bien au contraire. Comment est-il possible d’avancer qu’un patient est mieux traité par un médecin libéral en secteur 2 avec honoraires libres que par l’hôpital public, ou par un médecin conventionné secteur 1 ? Ce mouvement des « médecins pigeons » – né sous l’impulsion d’un chirurgien esthétique libéral – a bien pour but corporatiste de conserver la rémunération actuelle des médecins libéraux secteurs 2. Une telle revendication pourrait paraître justifiée si, toutefois, elle était faite honnêtement, sans essayer de se cacher derrière une action de santé publique. Cependant, afin de se faire une opinion sur celle-ci, il convient tout d’abord d’en comprendre les tenants et les aboutissants.

    La régulation des services médicaux

    Les soins médicaux sont une activité régulée dans la plupart des pays, et ce pour plusieurs raisons. D’abord, parce que le prix de marché non régulé serait si élevé que ce serait très cher, trop cher pour beaucoup d’individus et que ceux-ci seraient contraints de renoncer aux soins. Soumettre les soins médicaux au cours de « l’offre et la demande » serait aberrant. Ce serait regrettable d’un point de vue moral, mais également d’un point de vue économique car si les travailleurs ne se soignent pas ils risquent d’être moins productifs et ce sont toutes les autres branches de production qui en pâtiraient. En effet, les soins médicaux génèrent une externalité positive sur le reste de l’économie, ce qui peut suffire, en dehors même des arguments moraux, à justifier une intervention publique. De plus, la consommation de soins est un phénomène risqué, dépendant de survenues aléatoires de pathologies. Ce marché nécessite d’être couvert par des assurances. Or, les marchés des assurances sont des marchés très imparfaits, parmi les plus régulés sur le globe.

    Plusieurs formes de régulations des services médicaux sont possibles. Certains pays, comme la Suisse, régulent uniquement les assurances privées en forçant les individus à s’assurer. La rémunération des services médicaux est alors choisie dans un rapport de force entre assureurs et médecins: les assureurs ont plus de poids que les patients individuels pour négocier les prix et contrer l’oligopole des médecins. D’autres, comme l’Angleterre et la Suède, ont fait des soins un service public produit par l’Etat. Les médecins sont alors des salariés fonctionnaires, leur rémunération dépend de négociations salariales entre leurs syndicats et les représentants de leurs employeurs, en l’occurrence l’Etat.

    La régulation en France est un mélange des deux: les médecins sont effectivement payés en grande partie par l’Etat, via la sécurité sociale, et leurs rémunérations sont décidées également par l’Etat (du moins en secteur 1), mais ils sont une profession libérale en face des clients directement et non des payeurs: les assurances publiques et privées. La négociation de la rémunération est donc particulière, elle n’est pas celle de client à fournisseur de soins, et pas non plus celle d’employé à employeur. Ainsi, le débat actuel est en réalité celui d’une représentation professionnelle qui demande une augmentation à son employeur, ou qui demande à ne pas être diminuée. On en revient à cet état de fait, bien qu’il soit camouflé par les arguments avancés par le mouvement de revendications. Et pour cause, cette lutte pour une meilleure (ou une aussi bonne) rémunération est difficilement entendue par la majeure partie de la population et ce d’autant plus en période de crise. Ce qui dérange les non médecins, c’est qu’il s’agisse de revendications salariales d’une profession parmi les mieux rémunérées. Il en allait de même pour les grèves de pilotes de lignes et la question reste ouverte d’un point de vue général: comment considérer les revendications salariales des professions qui touchent bien plus que la majorité de leurs concitoyens?

    Où s’insère le secteur 2?

    Mais cette lutte pour une meilleure rémunération et ses faux arguments ne doivent pas cacher un problème réel de santé publique. La situation des dépassements d’honoraires, directement liée au type de régulation à la française, est problématique. En effet, si le conventionnement était obligatoire, avec une part substantielle du remboursement par la sécurité sociale, le mécanisme serait très proche d’un salariat à la pièce des médecins par l’Etat. Les revendications porteraient uniquement sur les tarifs conventionnés. Mais l’Etat, pour ne pas trop augmenter ses dépenses (et peut-être aussi pour effectuer son désengagement progressif de l’assurance maladie), a tenu fermement les tarifs conventionnés, qui sont aujourd’hui peu élevés (et qui n’ont pas été revalorisés depuis près de vingt-cinq ans). Peu élevés non par rapport à une valeur morale, mais par rapport à la rémunération des médecins dans des pays comparables, ou par rapport à leur évolution comparée à celles des autres professions aussi qualifiées. En échange, pour permettre quand même la hausse des rémunérations, l’Etat a lâché du lest sur les dépassements d’honoraires en encourageant le développement de l’assurance privée (originellement réservée à des assurances mutuelles pour garder un vernis public) pour payer le reste à charge.

    Ceci a conduit à une multiplication des secteurs 2, avec dans certaines régions une quasi impossibilité de trouver des médecins secteur 1 dans certaines spécialités. L’assurance privée s’est développée, et avec elle un de ses effets pervers, la non assurance de ceux qui se croient peu sujets au risque, ou de ceux qui trouvent le prix des assurances au-dessus de leurs moyens. Les cotisations de complémentaires santé ont en effet crû au fur et à mesure que les secteurs 2 augmentaient en nombre et en écart au tarif conventionné. On observe ainsi de plus en plus de refus de soins, liés à des incapacités de paiement, notamment en absence de mutuelles.

    Une vaste enquête réalisée par l’Institut de recherche et de documentation en économie de la santé (Irdes) en 2008 et portant sur la santé et la protection sociale a tâché d’étudier le phénomène complexe du renoncement aux soins, tout à la fois symptôme et conséquence évidente d’inégalités sociales de santé et d’inégalités d’accès aux soins qui se creusent. Ainsi, dans l’année précédant l’enquête, 16,5 % des 18-64 ans avaient renoncé à des soins médicaux pour des raisons financières, un chiffre que le Conférération des syndicats médicaux français (CSMF) trouve négligeable et balaie d’un revers de manche. On remarque par ailleurs que le renoncement aux soins est trois fois plus important au sein du quintile le plus pauvre (qui est celui dont l’état de santé est le plus mauvais évidemment) que dans celui le plus aisé. Il apparait évident que les dépassements d’honoraires entravent l’accès aux soins bien qu’ils n’en soient évidemment pas les seuls responsables. Le patient aux faibles revenus affilié à la sécurité sociale mais dépourvu de mutuelle (du fait du coût des cotisations) en est la première victime.

    Maintenant, plusieurs possibilités semblent s’offrir au gouvernement. Soit il continue à laisser filer l’assurance maladie vers le secteur privé, augmentant les inégalités d’accès aux soins. Soit il tente de remettre l’assurance santé dans le giron quasi exclusif de la sécurité sociale et cela ne peut passer que par deux solutions opposées. D’un côté, une limitation du secteur 2 sans augmentation du tarif conventionné: cela revient de facto à une baisse de rémunération des médecins. Ceux-ci se battent contre cela, non parce que cette baisse est immorale ou injuste, mais parce qu’ils se battent comme tout le monde pour leur rémunération. D’un autre côté, une limitation du secteur 2 en compensant par une augmentation du tarif conventionné : la rémunération des médecins ne changerait pas mais cela aurait évidemment un coût que certains semblent oublier. En effet, c’est le coût de la protection sociale qui augmenterait. Par effet domino, plusieurs possibilités s’offriraient alors aux décideurs: soit augmenter les cotisations sociales, et baisser de fait la rémunération de tous les salariés, dont les plus pauvres, soit augmenter d’autres impôts, et baisser le niveau vie des contribuables choisis.

    La rémunération du travail à sa juste valeur

    On voit bien ici que l’argument du bien-être du patient pour justifier le droit aux dépassements d’honoraires ne tient pas longtemps à l’analyse, et d’autres arguments sont également avancés, cette fois-ci de nature plus morale. Sont mis en avant les compétences des médecins, leurs efforts, leurs études longues et difficiles, pour justifier qu’ils méritent une rémunération très élevée, et qu’il est donc indigne de la leur contester. Des questions s’imposent immédiatement: qui, dans nos sociétés, est effectivement rémunéré en proportion de son mérite? Et sur quelles bases juge-t-on du mérite des différents travailleurs? Plus généralement, comment valorise-t-on un travail? Dans une société capitaliste, les activités réellement libérales sont valorisées par le marché. La valeur qui en découle n’est pas pour autant juste: la rémunération est égale à ce qu’est prêt à payer le client (1), compte tenu de sa possibilité d’aller voir un autre vendeur ou de ne pas acheter du tout. Ainsi, si le PSG rémunère son attaquant vedette plus de 14 M€ par an, ce n’est pas que cela représente sa valeur intrinsèque, mais parce que Qatar sports investments (QSI) pense qu’à travers notamment sa qualité footballistique et son aura médiatique, il lui rapportera au moins autant en termes directement financiers ou autres, et que s’il le payait moins il irait jouer pour un autre club.

    Pour les médecins, le cas est particulier, parce que la profession est particulière. On parle de profession libérale, mais tel n’est pas complètement le cas. Sinon, vu les sommes élevées que les individus qui en ont les moyens (détail important il va de soi) sont prêts à payer afin de préserver leur santé, les prix seraient probablement très élevés s’ils étaient fixés libéralement par le marché. On pourrait alors supposer que cela attirerait nombre de nouveaux médecins, mais la hausse du nombre de médecins resterait limitée même sans l’instauration de numerus clausus: la difficulté des études en question est une raison, et plus généralement les fortes inégalités sociales d'accès aux études universitaire en sont une autre.

    Globalement donc, il est probable que le prix non régulé des actes médicaux serait supérieur au prix actuel, y compris avec dépassement d’honoraires. Peut-on pour autant dire que le prix secteur 2 est injustement trop bas, et ne rémunère pas les médecins à leur juste valeur? Ce serait penser que le prix de marché reflète une valeur intrinsèque, voire une valeur morale, et ce serait se tromper. Par ailleurs, étant donné que les systèmes de santé étrangers sont également fermement régulés, notamment en ce qui concerne les conditions d’exercice, l'opportunité d'aller exercer ailleurs qu'en France dans de meilleures conditions est limitée. De plus, la rémunération actuelle, bien qu'inférieure à ce que serait la rémunération de marché, reste élevée, et suffisante pour conserver l’attractivité de la formation médicale.

    La question de l’encadrement des prix des actes médicaux est donc complexe et impacte fortement et parallèlement l’accès aux soins des patients et le salaire des médecins qui les soignent. Il apparaît donc indispensable que les praticiens et syndicats refusant l’encadrement de ces dépassements ne trompent ni leurs patients ni le public avec des justifications mensongères de façade et se doivent de reconnaître leur position aisée de « travailleur » cherchant à conserver une confortable rémunération. Reste à savoir alors quelles seront les décisions politiques à l’issue de ces négociations et mesurer par la suite leurs conséquences sur les rémunérations des médecins, sur l’évolution des cotisations aux assurances et sur les inégalités d’accès aux soins.

    [retour ; haut de page]

    Halte aux «médecins pigeons» qui agitent le drapeau de la santé publique !

    Libération, 15 octobre 2012, avec Anne-Laure Féral-Pierssens et Yonathan Freund

    C’est reparti, même refrain, mêmes artifices, mêmes mensonges. Le mouvement des entrepreneurs «pigeons», et sa réussite sur la question de l’imposition des plus-values de cession, fait des émules dans les mouvements de revendications de groupes sociaux aisés, se dénommant eux-mêmes «pigeons». Ce sont désormais les médecins qui s’y mettent, contestant notamment les restrictions aux dépassements d’honoraires, via un contrôle plus strict du secteur 2 de l’assurance maladie.

    Déjà en 2007, les syndicats d’internes de médecine et chefs de clinique appelaient avec succès à une grève de grande ampleur. Les internes protestaient alors contre un projet de la loi HPST qui prévoyait de limiter l’accès des médecins libéraux dans les secteurs sur-dotés, au profit de régions moins bien loties. La sanction prévue en cas de non-respect était celle du déconventionnement du médecin : les actes ne pourraient plus être remboursés par la sécurité sociale. Donc nous voilà tous gaiement, manifestant partout en France, aux cris de «Médecins déconventionnés, patients non remboursés !» et autre «On enterre la sécurité sociale !». C’était presque émouvant si on n’y regardait pas d’un peu plus près. Car, en fait, nous manifestions alors pour la liberté d’installation pure et simple.

    On peut comprendre après tout que le gouvernement cherche à installer des médecins dans les régions sous-dotées, mais aussi qu’un interne n’ait pas envie de se voir imposer son lieu d’exercice. Mais plutôt qu’être honnêtes, nous revendiquions le fait de manifester «pour le patient, pour préserver la sécurité sociale !». Vaste blague évidemment ! Il s’agissait bien de déconventionner uniquement certains médecins libéraux qui auraient souhaité s’installer dans des régions déjà en surnombre. Les patients n’auraient eu alors qu’à piocher un médecin local conventionné, et rien n’aurait changé. Son «bien» n’était en fait à aucun moment la priorité de ces manifestants. Qui les en blâmerait ? Après tout, il est bien de notre droit de manifester afin de préserver nos acquis, non ? En revanche, se cacher derrière de fausses revendications telles que celle d’avoir à cœur le bien-être du patient - justification certes davantage audible dans l’espace public -, apparaît comme mensonger et, par conséquent, intolérable.

    Cinq ans plus tard, nous y revoilà. Le projet de loi de finance de la sécurité sociale envisage d’encadrer les dépassements d’honoraires. Branle-bas de combat et agitation au sein de la corporation. Facebook véhicule le message général, soutenu et développé par de nombreux syndicats. Succès instantané sur la Toile du projet (porté par l’Inter syndicat national des internes des hôpitaux, ISNIH) de journée de mobilisation prévue demain autour du slogan ahurissant : «Journée de mobilisation : le choix de bien soigner». Par un merveilleux tour de magie et un usage pernicieux de la formule, faut-il comprendre dès lors qu’encadrer les dépassements d’honoraires aurait pour conséquence directe la dégradation des soins prodigués aux patients ? Les justifications très sérieusement avancées étant le fait que la situation «confortable» du médecin est une nécessité pour la sécurité des patients.

    On ne peut qu’être abasourdis par une manipulation aussi grossière portée par de faux arguments. Ce mouvement des «médecins pigeons» - né sous l’impulsion d’un chirurgien esthétique libéral notons-le au passage - peut, d’un certain point de vue il est vrai, paraître légitime. Opinion que, personnellement, nous ne partageons pas car les salaires des médecins (hospitaliers, libéraux secteur 1 ou 2) appartiennent à la frange supérieure des revenus français. Ces médecins, réagissant par corporatisme, souhaitent en fait conserver leur confortable rémunération. Alors de grâce, ne sous-entendez pas que tout cela est fait pour le bien du patient ! Comment est-il possible d’avancer qu’un patient est mieux traité par un médecin libéral en secteur 2 avec honoraires libres que par l’hôpital public, ou par un médecin conventionné secteur 1 ?

    Finalement, dernière doléance avancée par les médecins libéraux : «on» nous traiterait comme des délinquants. Non, lorsque la ministre de la Santé déclare «vouloir sécuriser l’accès aux soins en encadrant les dépassements d’honoraires», nous ne nous sentons pas traités comme des délinquants. Nous en connaissons bien certains (minoritaires) qui agissent comme tels, et ne pourrions que nous réjouir si cette loi permettait de limiter de telles pratiques. Ils s’insurgent encore, criant au scandale car on «jetterait l’opprobre» sur la profession. Qui peut avoir retenu une telle chose des déclarations récentes des autorités ? Tous les effets de manche sont permis, et tout se justifie quand il faut se battre pour ne pas perdre ses avantages.

    La tournure que prend cette mobilisation est obscène. Après tout, on le voit bien, on ne fait plus médecine par vocation. Enfin de moins en moins… Il nous apparaît donc indispensable que ces mouvements ne trompent pas les patients et le public avec des justifications mensongères de façade en agitant le drapeau de la santé publique et du bien-être des patients, de la déontologie et de la liberté mais plutôt reconnaissent officiellement leur position aisée de «travailleur» cherchant à conserver une confortable rémunération aux dépens des patients les plus précaires.

    [retour ; haut de page]

    Vers un autre monde (et donc une autre science économique) ?

    Journal du MAUSS, 28 juin 2011

    De très nombreux reproches sont régulièrement faits à l’encontre de l’analyse économique dite orthodoxe ou néoclassique. Cela s’observe dans nombre de lieux et de supports assez variés. L’expérience peut s’en faire notamment sur des blogs, des journaux, des revues ou des collectifs étudiants. En 2009, il est ressorti en périphérie d’un atelier de travail à Montréal intitulé « Workshop on Tax competition : how to meet the normative and political challenge » et rassemblant des juristes, des politologues, des philosophes et des économistes, que ce qui est principalement reproché à l’économie est un normatisme idéologique. Cette même critique ressort d’ailleurs fortement du numéro 30 de la revue du MAUSS : « Vers une autre science économique (et donc un autre monde) ? ». Ce numéro présente l’avantage de clarifier, d’expliciter et d’argumenter les critiques faites à cette analyse économique dominante. Cependant, si on ne peut qu’être globalement en accord avec beaucoup de ce qui est dit sur le fond, il apparaît que les reproches ne sont adressés ni aux bonnes personnes ou ni aux bons problèmes.

    En fait, s’attaquer à l’économie néoclassique en tant que cadre analytique est se tromper d’adversaire et ne fait pas en soit avancer le débat dans le bon sens. Ce n’est pas cette discipline en elle-même qui est idéologiquement normative, mais des économistes en tant que personnes – et bien plus encore des non économistes – qui au mieux interprètent, au pire déforment des résultats scientifiques autour de leurs propres valeurs, camouflant le subterfuge sous un discours prétendument objectif et scientifique. Alors, à l’opposé de sa mise à l’index en tant que discipline scientifique, une utilisation de l’analyse économique néoclassique positive pourrait se révéler extrêmement utile dans un débat plus général de sciences sociales ou de politique économique. Et ce point de vue semble rejoindre le point 1 du manifeste institutionnaliste : « … la science économique, correctement interprétée, ne fait sens que vue comme le moment analytique de l’économie politique. » [1]. L’important est de pouvoir séparer ce moment analytique positif de l’introduction de valeurs en vue des propositions normatives de l’économie politique. Alors l’analyse économique néoclassique, correctement pratiquée, peut parmi d’autres disciplines participer pleinement de ce moment analytique.

    La première partie de ce commentaire s’attache principalement à montrer que la vision de l’analyse économique néoclassique présentée dans le numéro 30 de la revue du MAUSS est caricaturale et erronée. Tout d’abord, il s’agit d’une simplification à outrance de ce cadre analytique où il finit par être réduit à ses premiers résultats, datant du XIXe siècle, et interprétés sans prendre en compte ce qui est de l’ordre de la conclusion ou de l’hypothèse. Ensuite, un portrait plus conforme de la science économique est présenté, où il est expliqué qu’elle est faite d’hypothèses et de méthodes très hétérogènes, non seulement entre courants mais également à l’intérieur même de la-dite orthodoxie. Cette hétérogénéité ne constitue pas une incohérence ni ne reflète uniquement des désaccords idéologiques. Elle existe par essence car il n’y a pas ni ne saurait y avoir de théorie générale et complète en économie. Enfin, la nette différence entre l’image de la science économique et ce qu’elle est vraiment serait en partie expliquée par la confusion existant entre un discours économique scientifique et un discours économique médiatique.

    La deuxième partie de ce commentaire tente de comprendre où se situe effectivement l’idéologie dans les discours mis en cause. Même si la confusion est soigneusement cultivée par ceux qui présentent leur profession de foi idéologique comme des résultats scientifiques de l’analyse économique néoclassique, elle se situe non pas dans les raisonnements eux-même mais bien souvent dans les interprétations de ces raisonnements. Il est ensuite discuté la place des valeurs dans l’analyse économique et la nécessité de séparer clairement, aussi bien dans les réflexions que dans les discours, les parties positives et analytiques des parties normatives où doivent influer les valeurs. En effet, changer de valeurs ou d’idéologies sans séparer celles-ci des résultats positifs ne serait que changer un normatisme idéologique contre un autre et ne permettrait aucunement d’espérer un autre monde.

    Une vision erronée de l’économie néoclassique

    1/ Simplification à outrance et théorie du XIXe siècle

    La vision de l’économie néoclassique, aussi bien celle donnée à travers le n°30 de la revue du MAUSS que celle donnée par de nombreux adversaires de l’économie néoclassique est bien souvent excessivement caricaturale, pour ne pas dire fausse, et pourrait se résumer en cette équation simpliste : « analyse économique néoclassique = idéologie néolibérale ». Plus généralement, l’économie néoclassique est bien souvent caricaturée sous les traits de ce que furent les débuts de ce courant. Ces débuts sont importants à connaître et à comprendre d’un point de vue épistémologique, mais correspondent à l’analyse économique du XIXe, qui a depuis été grandement perfectionnée et approfondie, afin de saisir au fur et à mesure de plus en plus de complexité.
    Les théorèmes du bien-être

    On trouve ainsi une caricature de ce type dans le point 4 du quasi manifeste institutionnaliste proposé par Alain Caillé : « la théorie classique de l’équilibre général […] affirme que la libre coordination entre de tels agents [homo œconomicus] conduit spontanément et automatiquement à un optimum économique » [2]. Plusieurs confusions existent sur ce résultat bien connu des économistes néoclassiques sous le nom de « premier théorème du bien-être ». Une première confusion réside dans la compréhension du terme « optimum ». Dans ce premier théorème du bien-être, cet « optimum » est un « optimum de Pareto », c’est à dire qu’on ne peut pas modifier la situation à partir d’un tel optimum en contentant tout le monde : tout déplacement depuis un optimum de Pareto engendre des perdants. Cet optimum, du fait qu’il s’appelle optimum, est souvent interprété comme un idéal à atteindre, mais il s’agit uniquement d’une interprétation. Il existe une infinité d’optima de Pareto et le fait d’en être un signifie seulement qu’il n’existe pas de gaspillage. D’ailleurs, la situation dictatoriale où une personne possède tout et les autres rien est un optimum de Pareto, sauf si ce dictateur peut accroître sa richesse personnelle en la partageant (c’est pourquoi des propriétaires donnent une part de leur capital pour rémunérer du travail : cela accroît leur richesse). Ce théorème affirme simplement que l’équilibre de concurrence pure et parfaite est un optimum de Pareto, mais absolument pas, ni que c’est celui que l’on souhaiterait socialement obtenir, ni d’ailleurs que la concurrence pure et parfaite existe réellement.

    Une deuxième confusion réside en effet dans le fait que la phrase citée constitue le « alors » d’un « si… alors », et qu’il manque le si. Le « si » constitue l’ensemble des hypothèses dont la principale est « si l’économie est constituée de marchés de concurrence pure et parfaite », ce qui nécessite de nombreuses conditions (homo œconomicus, atomicité, homogénéité des produits, information parfaite…) qui elles-mêmes sont toutes bien évidemment des fictions tant elles sont extrêmes. Il est fréquent de croiser des individus ayant une interprétation au premier degré de ce théorème du bien-être (et parmi eux on retrouve notamment des hommes politiques, des fonctionnaires, des journalistes et même des économistes), il arrive même que certains comprennent les hypothèses comme des impératifs. Combien de fois entend-on : « la théorie néoclassique prétend que l’être humain est un homo œconomicus, que les marchés sont constitués de multiples petites entreprises, que l’information est parfaite », c’est absurde ! L’analyse néoclassique a simplement dit au début du XXe siècle : « si les marchés sont parfaits, alors l’allocation des ressources est en conformité avec le critère de Pareto ». Ensuite, une grande partie de la recherche depuis a consisté à relâcher une à une et le plus loin possible les hypothèses de la concurrence pure et parfaite pour comprendre ce qui se passe réellement.

    Pour résumer la démarche, l’analyse néoclassique est partie d’un modèle idéal extrêmement simple, donc compréhensible dans son ensemble, puis a tenté de le compliquer de plus en plus. Ont été alors étudiés les cas de différentes concurrences de plus en plus imparfaites : présence de peu d’offreurs ou de peu de consommateurs, hétérogénéité des produits, information imparfaite ou asymétrique, et depuis récemment un grand pan est ouvert dans l’étude de la modélisation de comportements irrationnels, ce qui consiste à relâcher l’hypothèse de l’homo œconomicus lui-même. On peut critiquer en soi cette démarche consistant à partir d’une modélisation très simplifiée qu’on complique au fur et à mesure, elle a certainement des défauts. Toutefois, c’est une erreur de critiquer l’ensemble du programme de recherche en le confondant avec le modèle simplifié initial.
    Une économie d’échange pur

    Un autre exemple de caricature de l’analyse économique se trouve dans l’article de Nicolas Postel : « Hétérodoxie et Institution », dans lequel il présente trois points essentiels qui selon lui marquent la différence entre orthodoxie et hétérodoxie. Loin de montrer l’unité des hétérodoxes (pas plus que celle des orthodoxes d’ailleurs), cela schématise surtout une vision de l’analyse néoclassique actuelle qui me semble erronée.

    Le premier point est : « Economie de production contre économie d’échange », où il présente l’analyse néoclassique comme une théorie d’échange pur, sans autre mécanismes expliquant les prix que ceux de l’offre et de la demande. Selon lui, ce que fait l’économie hétérodoxe et que ne fait pas l’économie orthodoxe, c’est relier les prix aux conditions de production et à l’entreprise. Pourtant, la production est déjà présente, certes de manière assez sommaire, dans les œuvres de Walras ou de Jevons [3]. Si une part d’idéologie cherchant à camoufler la lutte des classes n’est sûrement pas étrangère au succès originel de cette théorie, ces œuvres fondatrices ont rapidement été approfondies par des études marginalistes de la production. L’analyse néoclassique consiste en effet à confronter des fonctions d’offre et de demande, mais celles-ci sont le reflet de multiples éléments, dont notamment les institutions ainsi que les conditions et capacités de production. L’analyse des entreprises et de la production est donc bien présente dans la théorie néoclassique, et ce dès ses balbutiements. Encore une fois, la modélisation la plus simple de l’équilibre économique en concurrence pure et parfaite peut ne pas concevoir la production, et celle juste un peu plus complexe une production dessinée à grands traits. Cependant, le principe même de l’analyse néoclassique n’exclue en rien une compréhension plus fine des entreprises et de la production, tâche à laquelle se sont attelés de nombreux économistes travaillant dans un cadre analytique néoclassique.

    Dans le même registre des procès d’intention intentés à l’analyse néoclassique, Nicolas Postel écrit un peu plus loin que « Walras cherchait à montrer que, en économie, le marché nous libérait de l’institution sociale » [4], il ajoute que « Le principe même de l’institution constitue un obstacle épistémologique pour le paradigme néoclassique » [5] et encore qu’« On connaît les difficultés du paradigme néoclassique à appréhender la protection sociale, l’investissement au travail, les déterminants salariaux, le phénomène syndical »[6]. Ces trois assertions sont fondamentalement fausses. Ce n’est pas parce que l’étude de ces principes institutionnels ne les modélise pas comme un déterminant direct du salaire – mais les mêlent à d’autres déterminants dans des fonctions d’offre et de demande qui ensuite permettent de déterminer le salaire – qu’ils ne sont pas pris en compte dans l’analyse économique néoclassique. Plusieurs exemples dans les parties suivantes en attestent.
    Une économie capitaliste de marché

    Le deuxième point est intitulé « Economie capitaliste contre économie de marché ». Encore une fois, il est probable qu’une des motivations de l’étude des marchés – quitte à occulter le caractère capitaliste – est un caractère idéologique de négation de la lutte des classes (surtout dans les présentations où tous les agents ont des biens matériels à échanger). Cependant, il est faux de faire ce procès à la recherche néoclassique actuelle qui est une étude d’une économie capitaliste à travers un fonctionnement de marché. On en revient d’ailleurs un peu au point précédent puisqu’à partir du moment où on analyse la production, qui est une production capitaliste pour les sociétés étudiées, on analyse de fait une économie capitaliste.

    Par ailleurs, dans ce paragraphe, Nicolas Postel se réfère à Marx pour chasser l’idée de marché du travail. Pour lui, l’analyse néoclassique ne prend pas en compte le rapport salarial : « Les rapports d’échange sont considérés comme fondés sur l’égalité absolue, et non formelle, des échangistes et ne sont reliés à aucune détermination sociale » [7]. C’est à mon sens une autre vision erronée de l’analyse marginaliste. Le fait de modéliser la relation salariale par un marché du travail ne signifie ni que les rapports d’échanges sont fondés sur l’égalité absolue ni qu’ils ne sont reliés à aucune détermination sociale. Les fameuses fonctions d’offre et de demande pour le marché du travail sont le produit d’un grand nombre de facteurs dont les institutions font partie et peuvent entraîner une inégalité de pouvoir de négociation criante. Il est important de noter qu’il est pour le moins réducteur de limiter l’analyse néoclassique à la simple utilisation de telles fonctions d’offre et de demande. La compréhension des différents phénomènes qui les sous-tendent (et notamment les enjeux de protection sociale, d’investissement au travail, de phénomènes syndicaux et d’autres déterminants salariaux) font partie intégrante du programme de recherche néoclassique.

    Nicolas Postel dit encore : « L’exploitation n’est pas le fait d’un rapport interindividuel qui opposerait des personnes moralement critiquables. Elle est au contraire un processus systémique et général qui s’impose à chaque travailleur, mais aussi à chaque capitaliste désireux de le rester et contraint, pour ce faire, de rechercher comme ses concurrents des gains de productivité en accumulant du capital et en maintenant minimale la rémunération du travail. » [8]. L’analyse néoclassique ne nie pas dans ses hypothèses l’existence d’un tel processus systémique, mais elle porte particulièrement son attention sur les conséquences en terme de décisions individuelles et de production globale du fait que chacun est contraint de rechercher comme ses concurrents des gains de productivité en accumulant du capital et en maintenant minimale la rémunération du travail.

    De plus, il laisse entendre que cette rémunération minimale est la rémunération de subsistance uniquement, faisait référence à la « loi d’airain » des salaires. Or Marx est très critique envers cette loi dont on lui attribue la défense. Si une lecture avisée du Capital permet de le comprendre, il le rappelle encore plus clairement dans sa critique des programmes socialistes : « Ainsi, à l’avenir, le parti ouvrier allemand devra croire à la « loi d’airain » de Lassalle ! (…) Mais si j’admets la loi avec l’estampille de Lassalle, […] il me faut également en admettre le fondement. Et quel fondement ! (…) C’est la théorie malthusienne de la population. (…) Mais, si cette théorie est exacte, je ne puis plus abolir la loi, quand j’abolirai cent fois le travail salarié, parce qu’alors la loi ne régit pas simplement la loi du travail salarié, mais tout système social. » [9] Non, Marx considère la fixation du salaire au niveau de subsistance comme une simplification de la réalité. Pour lui, le salaire gravite autour de ce salaire de subsistance en fonction de l’offre et de la demande de travail, tout en restant proche de ce dernier du fait de la très grande asymétrie dans les rapports de force sur le marché du travail.

    Dire que Marx pense que la loi d’airain des salaires est valide est aussi faux que dire que l’analyse néoclassique (on ne peut malheureusement pas en dire autant de tous les économistes néoclassiques) considère que les marchés réels sont en concurrence pure et parfaite. En effet, Marx opère avec une hypothèse forte pour simplifier sa modélisation quand l’intérêt de son analyse ne porte pas précisément sur les salaires, mais la lève aussitôt qu’il analyse le marché du travail en particulier. On peut ainsi lire dans Le Capital : « L’accroissement du capital renferme l’accroissement de sa partie variable. En d’autres termes, une quote-part de la plus-value capitalisée doit s’avancer en salaires. (…) Le progrès constant de l’accumulation doit même, tôt ou tard, amener une hausse graduelle des salaires. (…) chaque année fournira de l’emploi pour un nombre de salariés supérieur à celui de l’année précédente, et […] à un moment donné les besoins de l’accumulation commenceront à dépasser l’offre ordinaire de travail. Dès lors, le taux des salaires doit suivre un mouvement ascendant. » [10]. Et plus loin : « Tantôt c’est un excès en capital, provenant de l’accumulation accélérée, qui rend le travail offert relativement insuffisant et tend par conséquent à en élever le prix. Tantôt c’est un ralentissement de l’accumulation qui rend le travail offert relativement surabondant et en déprime le prix. » [11]

    Si l’on voulait résumer la pensée de Marx avec les termes de Nicolas Postel, on dirait que l’exploitation est bien le fait d’un rapport interindividuel qui oppose des personnes moralement critiquables, mais ce rapport à lieu dans le cadre d’un processus systémique et général qui s’impose à chaque travailleur et à chaque capitaliste désireux de le rester. Pour exprimer les conditions de cette inégalité fondamentale sur le marché du travail en termes néoclassiques, on pourrait dire qu’elle vient du fait que le capitaliste n’a pas un besoin impérieux de travail, ou pour le moins peut survivre en minimisant sa demande : la demande de travail est relativement élastique, alors que l’ouvrier a besoin de travailler pour vivre : l’offre de travail est grandement inélastique. Il en résulte un prix minimal sur le marché du travail, mais variable en fonction des variations marginales de l’offre et de la demande : les salaires sont bas. Cette modélisation n’est pas qu’un jeu d’interprétations, elle est utile pour comprendre comment les changements dans ces élasticités, qui traduisent des variations du rapport de force, induisent des changements de salaires et de conditions de travail. Ainsi, la constitution de syndicats, comme la mise en place de systèmes sociaux de solidarité, permet d’augmenter le pouvoir de négociation des salariés par l’augmentation de l’élasticité de l’offre de travail, et ainsi de faire remonter les salaires.
    Il est intéressant d’ailleurs d’utiliser ce schéma d’analyse pour comprendre les fortes baisses de salaires que l’occident connaît depuis les années 90. Après guerre, la force de travail n’étant pas en quantité colossale (faible offre de travail), et les besoins de reconstruction étant très importants (forte demande de travail), les salariés ont réussi à négocier d’importantes hausses de rémunérations, notamment sous la forme de conditions de travail et de protection sociale (car la protection sociale telle qu’élaborée en France est belle et bien une forme de rémunération non monétaire). Avec la chute de la « menace » communiste, et la hausse de l’offre de travail en général (en quantité et en qualité), le tout associé à une baisse de la demande de travail pour des raisons de diminution de la croissance productive et d’amélioration des technologies, l’élasticité de l’offre a baissé quand celle de la demande a augmenté, conduisant ainsi à une baisse des salaires réels à travers une augmentation inférieure à l’inflation et un recul de la protection sociale (par exemple, le passage progressif de la Sécurité Sociale vers des assurances privées).
    L’économie monétaire et la loi de Say

    Le troisième point est : « Economie monétaire contre économie réelle », où Nicolas Postel fustige la « loi de Say » (qui pour le coup date de 1803) et proclame que « l’unique explication analytiquement solide du chômage involontaire est bien celle de Keynes. » [12]. Tout d’abord, penser que l’analyse économique est restée à la loi de Say est très réducteur. Mais pour ce qui est du vrai débat derrière ces accusations rapides, il faut avouer que l’avancée énorme permise par l’œuvre de Keynes a eu des conséquences sur pratiquement tous les courants économiques, y compris le courant néoclassique parmi lequel de nombreux économistes étudient les phénomènes monétaires. On peut soit penser que les néoclassiques sont hypocrites et incohérents - avec la loi de Say affirmant que l’économie n’est que réelle et étudiant par ailleurs les phénomènes monétaires, soit penser que les sciences évoluent.

    Par ailleurs, les néoclassiques, en plus de s’attacher à comprendre les phénomènes monétaires, s’attachent à comprendre également les effets réels, car il en existe. Il est donc pour le moins simplificateur de prétendre que le chômage keynésien est la seule explication du chômage involontaire. Outre la fixation de salaires minimums (soit directement par la loi, soit par d’autres contraintes sociales), ce qui a forcément pour effet de modifier l’offre et la demande de travail, Shapiro et Stiglitz ont ouvert une branche d’étude néoclassique en expliquant le chômage involontaire « à la Marx » ai sein d’un processus décentralisé [13]. Ils ont d’ailleurs modélisé la question de l’investissement au travail que Nicolas Postel pensait difficile à appréhender pour le paradigme néoclassique. Les idées présentées dans cet article sont très certainement issues de Keynes, et Stiglitz s’en réclame, mais la modélisation est sans conteste néoclassique.

    Pour revenir au cas des salaires minimums, Keynes le considérait comme un déterminant du chômage volontaire, au moins dans la conception de volonté générale de la société. Cependant, si dire qu’il ne faut pas de salaires minimums pour éviter le chômage n’est qu’un argument idéologique en vue de faire baisser encore plus les salaires, nier tout lien entre les niveaux réglementaires des salaires et le chômage involontaire relève tout simplement de la destruction de thermomètre. La véritable question est de savoir si cette cause est faible ou importante devant les autres causes créatrices de chômage involontaire, et plus généralement si s’attacher à faire baisser les salaires est la solution la plus efficace et la moins coûteuse socialement pour faire baisser le chômage. L’analyse économique néoclassique peut alors grandement aider à répondre à cette question.
    Discours scientifique et discours médiatique

    Si les critiques adressées à l’analyse économique néoclassique sont souvent erronées, c’est probablement aussi parce que, comme le présente Jacques Sapir, il existe une grande confusion entre les discours économiques et les discours médiatiques. « Ainsi, alors que le discours du journalisme économique proclame depuis deux décennies que le protectionnisme est un mal absolu, nombre de travaux scientifiques aboutissent à un résultat inverse. Cet écart entre le discours économique médiatique et le discours scientifique constitue alors en lui-même un élément du débat à prendre en compte. » [14]. De ce point de vue, comme le discours médiatique se déclare bien souvent de la théorie néoclassique, il y a confusion entre le discours médiatique et l’économie néoclassique. On reproche alors à l’analyse néoclassique les simplifications et les falsifications du discours médiatique, avec, comme nous l’avons présenté plus haut, des procès d’intentions et des références à l’économie du XIXe siècle.

    Ainsi, il existe une différence notable entre l’analyse néoclassique et le consensus de Washington. Ce dernier a effectivement été soutenu par des économistes néoclassiques, mais par des arguments tout à fait contestables à l’intérieur même de l’analyse économique néoclassique. En effet, les principes défendus ont de multiples influences, partiellement contradictoires, sur la situation des différents pays concernés. A ce titre, les effets pervers des principes prônés par le FMI et la banque mondiale, principalement pour les pays en voie de développement, étaient prévisibles et expliqués par la théorie néoclassique. Mais c’est sur le terrain médiatique, assumé aussi par les administrateurs de ces institutions et des principaux états membres, que le consensus de Washington l’a emporté, aidé en cela par un monde journalistique conciliant et quelques experts économiques renommés. Cependant, si le crédit qui leur est a priori accordé a fortement servi la cause du consensus de Washington du point de vue médiatique, ces économistes ne portent pas un consensus au sein de l’analyse scientifique néoclassique.

    2/ Il n’existe pas de théorie générale de l’Homme

    La présentation précédente des déterminants du chômage peut paraître décousue. Un article parlant d’un déterminant, un autre d’un autre. La raison en est principalement que la recherche économique néoclassique sérieuse a depuis longtemps perdu la prétention de constituer une théorie générale de l’économie. Dans son « Quasi-manifeste institutionnaliste », Alain Caillé parle beaucoup de théorie générale en sciences sociales. Cependant, outre le fait qu’il n’en existe pas actuellement de valide [15], il y a fort à parier qu’il ne puisse pas en exister une. L’homme et sa manière exacte de se comporter en société est certainement bien plus complexe (et probablement aléatoire) que ne pourrait en rendre compte n’importe qu’elle théorie générale finie. Ainsi, l’analyse économique néoclassique cherche à mettre en perspective des effets différents et éventuellement contradictoires, mais pas forcément de manière exhaustive. D’où l’accord partiel avec le point 10 du quasi-manifeste institutionnaliste : « L’économie politique institutionnaliste doit élaborer une analyse pertinente pour tous les niveaux de l’action (micro, macro, meso, etc.) » [16]. L’économie politique doit effectivement se baser sur une analyse multi-niveaux, mais il faut ajouter qu’il est illusoire d’espérer qu’une analyse couvre tous ces niveaux à la fois, et même toute l’hétérogénéité de chaque niveau. Il s’agit donc de s’appuyer sur des analyses multi-niveaux, et parmi celles-ci se trouve l’analyse économique néoclassique. Pour résumer ma pensée, et mon désaccord avec les points 10 et 11 de ce même quasi-manifeste institutionnaliste, l’économie politique ne peut pas reposer sur une théorie unique de l’action sociale et économique. Ces analyses multi-niveaux, non seulement en économie mais aussi plus généralement en sciences sociales, ne peuvent pas consister en une théorie générale de l’Homme : il ne saurait exister une théorie générale du comportement humain.

    Quelle serait alors la cohérence de ces analyses multi-niveaux ? Elles consisteraient en une juxtaposition et une confrontation de touches et de modélisations, différentes selon le sujet d’étude forcément partiel. Il faut comprendre l’Homme en expliquant par parties ses décisions. Une des branches de ce grand projet consiste à définir différents « effets » sur ces décisions par modélisation en fonction du contexte. Et il se trouve que pour un nombre non négligeable de décisions, le caractère calculateur de l’Homme – qui ne définit certes pas l’Homme dans son ensemble mais est une de ses indéniables capacités – entre en compte. Se passer de l’étude des influences de ce caractère calculateur serait une grande erreur et rendrait plus parcellaire encore l’analyse des décisions humaines. Pascal Combemale écrit d’ailleurs que « l’homme n’est pas forcément œconomicus à la base, mais placé dans une société concurrentielle, il l’est ou il meurt » [17]. Peut-on douter que l’homme soit aujourd’hui placé dans un tel type de société ? La seconde partie reviendra sur la raison pour laquelle il est plongé dans cette société, mais à partir du moment où il l’est, il est impératif pour comprendre ses décisions d’étudier aussi ce qui découle de son caractère calculateur.

    La conclusion de cela est que l’analyse économique néoclassique n’est qu’un des nombreux vecteurs de compréhension de l’homme en société, mais que c’est un vecteur performant. C’est un cadre analytique qui permet de comprendre beaucoup, comme l’admet d’une certaine manière Alain Caillé : « … des économistes orthodoxes intelligents et ouverts, comme il en est heureusement beaucoup, sont tout à fait susceptibles de se reconnaître eux aussi dans nombre de formulations non standards qui vont suivre. L’explication de ce paradoxe réside dans le fait que la force du modèle standard, c’est son formalisme largement tautologique qui, une fois débarrassé des connotations idéologiques dont il est le plus souvent lesté, lui permet de s’adapter à peu près à n’importe quel contenu. » [18]. Ce passage est extrêmement péjoratif et déclare comme non standard des formulations qui ne le sont pas (pas plus qu’elles ne sont standards il faut bien l’avouer), mais contient une vérité très importante : le cadre analytique néoclassique est un outil adaptable et efficace.

    Lorsque Pascal Combemale parle de schizophrénie, il se rapproche de ce qu’Alain Caillé appelle un paradoxe : « … les économistes sont volontiers schizophrènes. Ceux dont le métier est d’analyser la conjoncture utilisent des modèles éclectiques dont l’armature reste souvent celle de la bonne vieille synthèse classico-keynésienne. (…) Par ailleurs, lorsque les questions se font plus précises, le praticien se soucie moins de théorie pure que du choix de la meilleure technique économétrique. (…) Le pragmatisme conduit à répondre de façon empirique à des énigmes concrètes » [19] ou encore : « … la force de l’orthodoxie réside profondément dans sa normativité, laquelle se nourrit d’une anthropologie et d’une philosophie politique » [20]. On peut reformuler de manière moins péjorative cette phrase en disant que des orthodoxes actuels font feu de tout bois pour comprendre le monde, qu’ils confrontent différents modèles et différents effets, cherchant le plus adapté à chaque situation. Il se trouve que c’est sûrement une bonne solution s’il n’existe pas de théorie générale de l’homme.

    Mais bien entendu ce grand projet de sciences sociales paraîtrait bien vain s’il ne consistait qu’en un catalogue de tous les effets possibles, issus de différents raisonnements et hypothèses, et donc difficile à confronter. C’est là que peut-être la dénomination de sciences se justifie par la partie empirique de ce travail, qui consiste par tous moyens possibles, - études de terrain qualitatives, analyses statistiques de situations passées ou expérimentations -, à tester et à comparer l’importance et la prévalence des différents effets.

    Normativité et violence symbolique

    Outre les fausses critiques sur la réalité de l’analyse économique néoclassique, il lui est souvent reproché d’être idéologique ; plus précisément de défendre une idéologie de libéralisme économique, de non intervention publique, de concurrence sur les marchés… Plusieurs questions se posent alors. La première sous partie de cette seconde section interroge la réalité de l’existence de l’idéologie dans la science économique elle-même et dans nombre de ses utilisations ? Si, pour revenir à la séparation précédemment présentée, les discours économiques médiatiques sont incontestablement idéologiques, il faut bien constater que beaucoup de discours scientifiques le sont aussi, sans pour autant qu’ils le soient forcément. En effet, l’idéologie n’est pas un fondement essentiel de l’analyse néoclassique, mais un ajout. La seconde sous partie se penche sur les buts et surtout les influences réelles de cette idéologie ? La réponse à cette question différera bien évidemment suivant qu’on l’abordera avec une vision idéaliste ou matérialiste du changement social. Enfin, si le but est de changer le monde (à moins que le but soit uniquement de changer de science économique et que le changement de monde ne reste qu’un dommage collatéral), quelle aide l’économiste peut-il apporter ? La troisième sous partie tentera alors de définir dans quelle mesure il doit incorporer ses valeurs dans ses analyses, et surtout comment et à quel moment du raisonnement.

    1/ Où se situe l’idéologie ?

    A lire le numéro 30 de la revue du MAUSS, il nous est donnée l’impression que l’analyse économique néoclassique repose sur des bases essentiellement idéologiques et qu’elle ne peut exister sans l’idéologie de libre concurrence et de laisser faire. Or c’est profondément faux. Le type de raisonnement utilisé dans cette analyse n’est pas plus idéologique qu’un autre, et, pour ne parler que des études économiques sérieuses, l’idéologie n’a que deux endroits pour se terrer, lorsqu’elle se terre effectivement : dans les hypothèses et dans les conclusions. En effet, le raisonnement économique orthodoxe n’est rien d’autre qu’une induction, qu’un « si… alors ». Et l’idéologie intervient souvent dans le fait que le « si » est tu et que le « alors » est interprété, mais ces erreurs n’enlèvent en rien la valeur de l’induction.

    Pour ce qui est du « si », l’idéologie intervient principalement dans son oubli. C’est à dire que l’on considère comme un fait absolu ou comme une situation naturelle et inévitable ce qui est de l’ordre de la construction sociale. Le « si » le plus souvent oublié est ainsi : « si les hommes étudiés participent à une société de production capitaliste ». L’analyse économique néoclassique tend souvent à interpréter ses résultats comme généraux, alors qu’ils ne sont valables que dans un type précis de société. Cependant, tant que l’on reste dans cette société capitaliste, les résultats néoclassiques sont valables.

    Parallèlement, l’endroit où l’on retrouve le plus souvent l’idéologie est dans l’interprétation de la conclusion. Il est en effet compréhensible qu’un auteur tente de réinterpréter les résultats au regard de ses valeurs. Mais cela conduit bien souvent à des confusions et des sur-interprétations. Un des meilleurs exemples est ce fameux théorème du bien-être déjà discuté. Outre le périmètre de validité qui est bien souvent élargi à tort, ce théorème ne dit ni plus ni moins que si toutes les hypothèses sont respectées, l’équilibre de marché constitue une allocation des facteurs et des produits optimale au sens de Pareto, ce qui ne veut absolument pas dire que cette situation soit souhaitable. Le passage « d’optimum de Pareto » à « situation souhaitable pour la société » réside bien souvent dans une méconnaissance profonde du concept d’optimum de Pareto, et s’avère probablement très utile à certaines idéologies. Il n’en demeure pas moins que le théorème du bien-être ne dit absolument pas que la situation émanant de la libre concurrence est la situation économique socialement souhaitable.

    Comme présenté précédemment, des auteurs du numéro 30 de la revue du MAUSS : « Vers une autre science économique (et donc un autre monde) ? » admettent au moins partiellement la pertinence des hypothèses néoclassiques ; ainsi, Pascal Combemale écrit « l’homme n’est pas forcément œconomicus à la base, mais placé dans une société concurrentielle, il l’est ou il meurt » [21]. Ainsi, l’étude d’une société fortement concurrentielle comme l’est la société de production capitaliste semble donc justifier à ses yeux l’hypothèse d’homo-oeconomicus. Cependant, il semble dire, et d’autres auteurs dans le même numéro avec lui, que c’est la science économique néoclassique qui est responsable de ce monde concurrentiel. Ainsi, ce serait l’analyse économique néoclassique qui pousserait l’homme à se comporter comme un homo œconomicus. C’est donner là un énorme pouvoir à cette science, pouvoir qu’elle n’a probablement pas. Certes, il est indéniable qu’il existe bien souvent un effet réciproque d’une science sur son objet d’étude, et cela d’autant plus que cette science est sociale et qu’elle a des prétentions normatives. Mais, si nous vivons dans un monde capitaliste, cela n’est à l’évidence pas le seul fait des économistes mais relève de bien d’autres causes.

    Alors, nier les résultats scientifiques de l’analyse économique néoclassique – et pas ceux prétendus tels - lorsqu’on vit dans une économie capitaliste revient à casser le thermomètre lorsqu’on est malade. Il y a fort à parier que ce monde concurrentiel a été instauré non pas parce que des économistes se sont dit que ce monde là serait bien, mais bien parce que la classe qui a pris le pouvoir économique après la révolution industrielle a eu à la fois l’intérêt et le pouvoir politique de l’instaurer. L’idéologie agit ensuite et permet de conserver le système mis en place sans avoir besoin de renier la démocratie.

    Il apparaît tout d’abord un phénomène que Karl Marx et Georg Lukacs appellent la fausse conscience. C’est à dire que la classe dominante, qui a intérêt dans le système mis en place, le justifie non par son pouvoir et son intérêt, mais par des raisons naturelles : là se trouve l’idéologie. Ensuite, ce que Pierre Bourdieu appelle la violence symbolique se produit, la classe dominante impose à l’ensemble de la société cette idéologie qui justifie ex post l’organisation sociale. Il est vrai que cette violence symbolique agit notamment – mais pas uniquement – sous des apparences de théorie économique néoclassique. Cependant, il s’agit là de théorie économique néoclassique déformée ou mal interprétée. C’est le discours médiatique dont parle Jacques Sapir : « … le discours économique médiatique se prétend un discours scientifique, et de ce fait hors de l’espace de la contestation politique. Il se veut une « vérité » au sens scientifique, au moment même où il s’éloigne délibérément et consciemment des résultats des travaux scientifiques. » [22]. Et rejeter ainsi l’analyse néoclassique véritable ne changerait pas cette violence symbolique – qui trouverait d’autres vecteurs – et encore moins le réel rapport de force qui resterait inchangé.

    A l’opposé, la négation de certains résultats de l’analyse économique néoclassique peut entretenir une confusion qui profite grandement à l’idéologie dominante. En effet, si un résultat de l’analyse économique néoclassique bien interprété relie par une déduction une condition à une conclusion, quiconque désapprouve la conclusion devrait s’attacher à faire en sorte que la condition ne soit plus effective. Nier à tort le raisonnement, comme le font des critiques de l’analyse économique néoclassique, permettrait seulement de détacher dans l’esprit des opposants la conclusion de la condition, et servirait uniquement à défendre la condition. Ainsi, pour revenir à l’exemple qui nous préoccupe, nier le raisonnement de l’analyse néoclassique qui dit qu’un système de production capitaliste (condition) conduit forcément à un niveau élevé de violence et d’inégalités (conclusion) ne permettrait jamais de diminuer significativement les inégalités. Cela participe au contraire de l’idéologie qui tend à protéger le système actuel, soit en le déclarant comme naturel, soit en le détachant de ses conséquences réelles.

    Dans ce cadre, il est effectivement important que l’ensemble des économistes, et parmi eux plus encore les quelques néoclassiques qui ne sont pas dupes de la supercherie, travaillent à lever le voile de cette idéologie. Mais ici il n’est pas question de méthode d’analyse, car l’idéologie n’a pas atteint l’analyse économique néoclassique mais bon nombre d’économistes, néoclassiques ou non.

    2/ Idéalisme ou matérialisme

    Une partie des désaccords avec les articles de la revue du MAUSS présentés précédemment se résument à un désaccord fondamental sur la conception du changement social : vue idéaliste contre vue matérialiste. Dire que l’analyse économique néoclassique est la force qui a permis d’instaurer le capitalisme est idéaliste. Dire que l’analyse économique néoclassique étudie le capitalisme qui a été instauré par les révolutions industrielle et bourgeoise est matérialiste. On retrouve bien cette problématique dans les titres, est-ce parce qu’on élaborera une nouvelle théorie économique que le monde changera par l’adoption de ces nouvelles idées : la version idéaliste « Vers une autre science économique (et donc un autre monde) ? » ou est-ce lorsqu’on changera de mode de production et donc de monde, qu’il faudra inventer une autre science économique pour en rendre compte : la version matérialiste « Vers un autre monde (et donc une autre science économique) ? ».

    Sur ce point de vue, on peut revenir à cette loi d’airain dont parle Nicolas Postel et prendre comme exemple les mouvements généraux des salaires dans les pays occidentaux dans la seconde moitié du XXe siècle. Est-ce aux idées que sont dues ces variations depuis l’après-guerre, ou aux conditions de la production ? L’analyse néoclassique du marché du travail, avec la détermination d’une offre et d’une demande de travail liées aux besoins de reconstruction, aux institutions, etc. permet de comprendre en partie pourquoi la fameuse loi d’airain ne s’est pas trouvée vérifiée notamment depuis la fin de la seconde guerre mondiale.

    Après celle-ci, les besoins de reconstruction, et ainsi l’accumulation rapide du capital et la forte croissance allaient de paire avec une très forte demande de travail. L’offre de travail, pas particulièrement augmentée par la guerre, s’est retrouvée relativement faible devant la demande. Dès lors, les salaires ne pouvaient qu’augmenter. Cette augmentation des salaires ne s’est pas faite uniquement en termes monétaires, mais surtout en termes de protection sociale : la protection sociale à la française est bel et bien une forme de rémunération différée et non une forme de solidarité [23]. Ainsi, la constitution du modèle social après guerre n’est pas dû à un nouveau courant d’idées, basé sur l’humanisme et la solidarité, mais bel et bien à un renforcement du pouvoir des travailleurs dans leur rapport de force vis-à-vis de leurs employeurs. Bien entendu, le pouvoir des syndicats de l’époque n’a pas été étranger aux acquis de protection sociale, mais ce pouvoir lui-même a dérivé au moins en partie d’un rapport de forces modifié et n’en a pas seulement été la cause.

    À la fin du XXe siècle, ce rapport de forces s’est inversé. La forte hausse de la productivité (elle-même due à de nombreux facteurs que l’analyse économique participe à expliquer) a été une des forces visant à diminuer la demande de travail, alors que l’offre n’avait aucune raison de diminuer par ailleurs. Ce renversement du rapport de forces entre l’offre et la demande de travail devait naturellement entraîner une diminution des salaires. Cette baisse des salaires s’est d’abord produite via une augmentation nominale inférieure à l’inflation, puis le mouvement s’est accéléré avec la remise en cause de bon nombre de rémunérations non monétaires.

    L’idéologie du travailler plus et plus longtemps, de la supériorité des assurances privées sur les assurances publiques existe aujourd’hui, mais elle n’est pas la cause réelle et première de la baisse des salaires et de la détérioration de l’accès aux soins, elle n’en est qu’une justification a posteriori. La véritable cause se trouve dans les modifications de l’offre et de la demande de travail, non du fait d’idéologies mais bien pour des raisons structurelles et économiques permises par le système de production capitaliste. La théorie néoclassique offre un bon outil pour comprendre les conséquences en termes de salaires des variations de ce rapport de force entre l’offre et la demande de travail. Alors, la création d’une idéologie alternative serait-elle suffisante pour inverser ce rapport de force ou un changement en profondeur de la société et des ressorts de la production est-elle nécessaire ?

    3/ Quelle forme d’analyse et quels valeurs ?

    Mais d’où viendra alors ce changement ? Sûrement pas de la simple attaque de l’économie néoclassique. Un changement de la société elle-même est nécessaire, et c’est pourquoi l’analyse néoclassique peut être utile afin de comprendre les facteurs qui doivent absolument être modifiés sous peine de ne rendre les changements que marginaux. Si on souhaite changer le « alors » du raisonnement économique, il faut prendre en compte le raisonnement pour pouvoir remonter au « si » originel et tenter d’agir politiquement sur lui. L’analyse néoclassique ne construit certes pas le monde futur, mais elle permet de comprendre le monde présent, et de faire le lien entre ses institutions et leurs conséquences économiques.

    Dans ce sens, une partie des attaques contre l’orthodoxie présentées dans le numéro 30 de la revue du MAUSS se trompe d’adversaire. Cette confusion est particulièrement visible dans la conclusion de Pascal Combemale : « (…) l’hétérodoxie ne peut espérer la combattre [l’orthodoxie] sans dessiner un autre horizon. » [24]. On pourrait attendre plutôt l’inverse : pour pouvoir dessiner un autre monde, il faut combattre l’économie néoclassique, mais ce serait tout aussi faux. Le but est-il de combattre la science économique néoclassique, quitte pour cela à dessiner un autre monde ? Ou le but est-il bien de construire un autre monde, quitte alors à utiliser les enseignements de la science économique néoclassique ?

    Alain Caillé semble s’intéresser, quant à lui, plus particulièrement à la définition d’un nouveau monde, et propose pour cela comme solution normative : « La conclusion la plus générale qu’il soit possible de tirer est qu’on ne peut pas avoir d’efficacité économique durable sans édifier une communauté politique et éthique durable parce que forte et vivante. » [25]. Il propose de bâtir une communauté démocratique, morale et juste, à partir de laquelle « l’économie politique institutionnaliste [parviendrait] à déterminer le meilleur agencement institutionnel pour une société donnée à un moment donné. » [26]. La question qui se pose alors est de savoir jusqu’où on appelle le cadre social « agencement institutionnel » ? Y a-t’il une limite aux principes qu’on peut remettre en cause ? Et une communauté démocratique, morale et juste, parviendrait-t-elle à renverser l’idéologie et la violence symbolique pour faire appliquer démocratiquement « le meilleur agencement institutionnel » même s’il va à l’encontre d’intérêts qui ont un poids certain dans les décisions dites démocratiques ?

    Il y a fort à parier que pour parvenir à ce but, cette économie politique, qu’on l’appelle institutionnaliste ou autrement, qui se doit d’être normative, devra s’attacher à comparer, au regard des valeurs qu’elle a définies comme siennes, les conséquences économiques et sociales des différents agencements institutionnels. Pour mener à bien cette comparaison, l’analyse économique néoclassique positive, aussi bien que nombre d’autres disciplines positives, pourra être d’une grande utilité.

    Quant à l’aspect clairement idéaliste, qui dériverait vers l’utopie, de la proposition d’Alain Caillé, il est encore plus voyant dans sa conclusion : « Une bonne réforme est celle que personne (et même pas ses opposants lorsqu’ils ont remporté les élections suivantes) ne songe plus à abolir une fois qu’elle a été effectuée. » [27]. C’est se tromper doublement. Premièrement, c’est oublier un peu trop que certains ont un intérêt réel dans la situation présente, dans l’inégalité et la soumission. Encore une fois, nier la lutte des classes ne résout pas le problème des intérêts divergents. Deuxièmement, cela semblerait dire, par exemple, que ce que l’opposition Jospin n’a pas enlevé des lois Pasqua-Debré et ce que la prochaine opposition hypothétique n’enlèvera pas des lois Sarkozy-Hortefeux (pour ne citer qu’elles) sont de bonnes réformes ? C’est là oublier un peu vite que la violence symbolique et l’idéologie sont aussi là pour pérenniser les réformes favorables à ceux qui sont peut-être moins nombreux mais plus puissants dans le rapport de force politique, économique et social.

    Ainsi, il n’est pas utile de tenter de construire une nouvelle science économique en remplaçant une idéologie par une autre. A l’inverse, il faut justement enfin séparer autant que faire se peut les discours positifs des discours normatifs. Un des problèmes actuels est que ces discours sont mélangés et qu’est présenté sous un (faux) jour positif ce qui est normatif et favorable à une classe restreinte possédant les capitaux productifs. Jouer le jeu dans l’autre sens est voué à l’échec. Il faut au contraire séparer l’analyse positive des valeurs, défendre une analyse économique et sociale positive (dont l’analyse économique néoclassique). Le raisonnement (tout ce qui se trouve entre le « si » originel et le « alors » final) doit s’attacher à être le plus imperméable possible aux valeurs, quelles qu’elles soient. Le rôle des analystes est alors de dissocier les discours idéologiques des discours scientifiques, de lever le voile de l’idéologie, pour comprendre quel est le « si » qui conduit au « alors » qu’on vit aujourd’hui. Ensuite seulement doivent entrent en scène les valeurs, qui doivent alors être clairement affichées, assumées et défendues, dans l’interprétation des résultats et dans les conclusions politiques à en tirer.

    Ce travail doit être fait par une science sociale non généralisante, qui cherche à déterminer un par un les effets potentiels, quitte à avoir recours à différentes hypothèses, différentes méthodologies, différents niveaux de généralisation. Et ainsi cette science peut et doit se décomposer en plusieurs types d’analyses, comprenant entre autres l’analyse économique néoclassique. De ce point de vue, il n’y a ainsi pas d’unité entre les hétérodoxies et les différences entres elles sont plus grandes qu’entre l’analyse néoclassique et certaines de ces hétérodoxies. Leur seul point commun est d’être mises à l’écart par les néoclassiques, aidés par le discours médiatique.
    Il parait ensuite clair que ce catalogue de différents effets, multiples et contradictoires, ne peut pas permettre à lui seul de réaliser l’interprétation souhaitée en terme d’économie politique. Préalablement, ces différents effets doivent être testés et comparés. Pour ce faire, il existe de nombreuses méthodologies empiriques développées par différentes communautés scientifiques : des analyses quantitatives ou qualitatives, issues d’observations de situations passées ou de processus expérimentaux. Les économistes néoclassiques notamment ont développé des outils statistiques qui savent se révéler extrêmement utiles dans ce type de projet scientifique.

    [1] Alain Caillé, Un quasi-manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 38.
    [2] Ibid. p. 39.
    [3] Walras et Jevons sont considérés comme deux des trois fondateurs de l’économie marginaliste au cours des années 1870, le troisième étant Menger.
    [4] Nicolas Postel, Hétérodoxie et institution. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), pp. 79-80.
    [5] Ibid. p. 80.
    [6] Ibid. p. 83.
    [7] Ibid. p.74.
    [8] Ibid, p. 73.
    [9] Karl Marx et Friedrich Engels. Programmes socialistes, critiques des projets de Gotha et d’Erfurt. Cahiers mensuels Spartacus, 2ème série (1971), n° 42, pp. 29-30.
    [10] Karl Marx. Le capital. Editions sociales, Paris (1977), tome III, p. 55.
    [11] Ibid. p. 60.
    [12] Nicolas Postel, Hétérodoxie et institution. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 75.
    [13] Carl Shapiro et Joseph Stiglitz. Equilibrium Unemployment as a Worker Discipline Device. American Economic Review n° 74 (1984), pp. 433-444.
    [14] Jacques Sapir, Libre échange, croissance et développement : quelques mythe de l’économie vulgaire. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 151.
    [15] Pour qu’une théorie générale soit valide, elle doit l’être en tout point. Si un seul point n’est pas valide, la théorie n’est plus générale mais partielle, pour les parties où elle n’est pas invalidée.
    [16] Alain Caillé, Un quasi manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un aute monde) ? (2007), p. 42.
    [17] Pascale Combemale, L’hétérodoxie encore : continuer le combat, mais lequel ?. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 63.
    [18] Alain Caillé, Un quasi-manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Sciences Economique (et donc un autre monde) ?, p. 33.
    [19] Pascale Combemale, L’hétérodoxie encore : continuer le combat, mais lequel ?. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 59.
    [20] Ibid. p. 67.
    [21] Ibid, p. 63.
    [22] Jacques Sapir, Libre échange, croissance et développement : quelques mythe de l’économie vulgaire. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 151.
    [23] Il ne faut pas en effet confondre rémunération et solidarité. En France par exemple, le système de protection sociale (assurances chômage et maladie, retraites) est un système assurantiel qui n’est autre qu’une forme de rémunération du travail. Ceci est particulièrement visible avec le chômage et la retraite, pour lesquels les prestations sont proportionnelles aux cotisations. En revanche, les aides de types AME-CMU, RSA ou minimum vieillesse sont de l’ordre de la solidarité.
    [24] Pascale Combemale, L’hétérodoxie encore : continuer le combat, mais lequel ?. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p.67.
    [25] Alain Caillé, Un quasi-manifeste institutionnaliste. Revue du MAUSS n° 30, Vers une autre Science Economique (et donc un autre monde) ? (2007), p. 43.
    [26] Ibid. p. 45.
    [27] Ibid. p.46.

    [retour ; haut de page]