March 2022

Accuracy Talks Straight #4 (FR)

Pour notre quatrième édition de Accuracy Talks Straight, René Pigot fait le point sur l’industrie du nucléaire, avant de laisser Romain Proglio nous présenter H2X-Ecosystems, une start-up permmettant aux territoires et aux entreprises de produire et consommer sur place l’hydrogène. Nous analyserons ensuite l’évolution de la banque de détail avec David Chollet, Nicolas Darbo et Amaury Pouradier Duteil.
Sophie Chassat, Philosophe et associée chez Wemean, nous proposera d’étudier le sens de la valeur travail. Enfin, nous nous focaliserons sur le taux d’actualisation avec Philippe Raimbourg, Directeur de l’Ecole de Management de la Sorbonne et Professeur affilié à ESCP Business School, ainsi que l’amélioration du panorama économique avec Hervé Goulletquer, Senior Economic Advisor.


SOMMAIRE


Vers un nouvel âge d’or du nucléaire !

René Pigot
Associé, Accuracy

Après avoir été fragilisée par plusieurs évènements et décisions défavorables (Fukushima, Flamanville, Fessenheim), l’industrie du nucléaire connaît aujourd’hui un regain d’intérêt.

La récente annonce par le Président de la République française du lancement d’un programme de construction de 6 réacteurs EPR2 traduit le choix de maintenir un socle de production d’électricité décarbonée à partir de l’énergie nucléaire. Si elle fait l’objet de débats, cette décision relève d’un pragmatisme froid : malgré la démonstration d’un déploiement à grande échelle, les énergies renouvelables restent soumises aux aléas météorologiques et ne seront pas en mesure de se substituer aux moyens de production d’énergie pilotables, tant les engagements de réduction des émissions de gaz à effet de serre à horizon 2050 sont ambitieux.

Face à l’électrification de l’économie, le choix de maintenir le nucléaire dans le mix énergétique français aux côtés des énergies renouvelables n’est pas une option mais relève de la nécessité. Le garant de l’équilibre des réseaux en France, RTE, le reconnait également : les scénarios sans renouvellement du parc nucléaire reposent, en matière de sécurité d’approvisionnement, sur des paris technologiques et sociétaux significatifs. Au-delà de ces aspects, le nucléaire constitue également un vecteur évident d’indépendance énergétique pour les européens. L’actualité nous le rappelle cruellement, et a failli faire infléchir la position du Gouvernement fédéral allemand sur son retrait du nucléaire.

En France, les premières estimations font état d’un coût de construction de 52mds€ mais les modalités de financement restent encore à définir. Seule certitude, le soutien de l’Etat sera indispensable pour garantir la compétitivité du prix final de l’électricité, compte tenu de l’ampleur des investissements et des risques pesant sur ce projet. Il faudra enfin faire preuve d’imagination en terme d’ingénierie financière afin d’aligner les intérêts de l’Etat, d’EDF et des consommateurs.


H2X-Ecosystems

Romain Proglio
Associé, Accuracy

Créée en 2018 et originaire de Saint-Malo, H2X-Ecosystems propose aux territoires et aux entreprises de créer un écosystème vertueux complet alliant production d’énergie et mobilité décarbonées, qui permet à la fois de produire et consommer sur place l’hydrogène. Ces écosystèmes sont coconstruits avec et pour les acteurs locaux afin de valoriser au mieux leurs ressources territoriales pour créer de la valeur ajoutée tout en la maintenant à l’échelle locale. Ils participent ainsi au développement de ces territoires ruraux, périurbains ou urbains.

L’hydrogène renouvelable et bas carbone est produit à partir des ENR et du procédé d’électrolyse de l’eau, qui est récemment devenu un des leviers majeurs vers la décarbonation. La société associe cette production à des consommateurs classiques (bus, bennes à ordure, etc.) mais aussi et surtout des services de mobilité légère et de livraison: voitures en libre-service et livraison des derniers kilomètres. H2X-Ecosystems a ainsi rendu accessible une voiture hybride fonctionnant à la fois à l’énergie solaire et à l’hydrogène, grâce à laquelle les bornes on-grid de rechargement ne sont donc plus nécessaires. Le tout sans émission sonore, ni de gaz à effet de serre (CO2, NOx, etc.)

Plus généralement, H2X-Ecosystems est présent sur l’ensemble de la chaîne de valeur de l’hydrogène de la production, à la consommation en passant par le stockage : électrolyseur, groupe électro-hydrogène forte puissance, powerpack (piles à combustible et réservoirs amovibles) pouvant être intégrés dans des solutions de mobilités légères.

Ainsi, H2X-Ecosystems a signé un accord de partenariat avec Enedis Bretagne pour le déploiement de son groupe électro-hydrogène de forte puissance conçu pour fournir une alimentation électrique provisoire, en période de travaux ou lors d’un incident, au réseau d’électricité. Ce groupe permet, de fait, de réduire les émissions de CO2 et sonores d’ENEDIS en remplaçant leurs groupes fossiles par cette technologie.

De plus, dans une période de contrainte forte sur les prix de l’énergie, la proposition de valeur portée par H2X ECOSYSTEMS permet de tendre vers une maîtrise des dépenses énergétiques et vers une autonomie énergétique des sites industriels en s’appuyant notamment sur ce générateur électro-hydrogène couplé à d’autres systèmes complémentaires (ENR, production sur site d’hydrogène, etc.).

Dans sa présentation du plan France 2030, le Président de la République Emmanuel Macron a réaffirmé l’importance de ce secteur à l’avenir : « Nous allons investir près de 2 milliards d’euros pour développer l’hydrogène vert. C’est une bataille pour l’écologie, pour l’emploi, pour la souveraineté de notre pays que nous allons mener ».

S’appuyant notamment sur l’énergie nucléaire pour produire de l’électrolyse très décarbonée, la France a un rôle de leader à jouer et H2X-Ecosystems y participe pleinement en implantant ses premiers outils de production en France tout en conciliant son développement avec une démarche écologique vertueuse créatrice de valeurs ajoutées, indépendance énergétique et rentabilité pour les entreprises et les territoires.


Banque de détail, la querelle des anciens et des modernes

David Chollet
Associé,
Accuracy

Nicolas Darbo
Associé,
Accuracy

Amaury Pouradier Duteil
Associé, Accuracy

La banque de détail est un secteur dont le rythme de transformation va aller en s’accélérant dans les prochaines années. Ces dix dernières années ont surtout vu les modes de distribution évoluer vers davantage de digitalisation, sans toutefois remettre en cause le modèle physique. Dans les dix ans qui viennent, dans un monde où la technologie va progressivement permettre de servir les grands univers de besoins via des plateformes, il faudra faire évoluer à la fois l’offre, la distribution et les solutions technologiques.

1. LES TRANSFORMATIONS À L’OEUVRE

Inutile de revenir trop longtemps sur le contexte dans lequel la banque de détail se déploie depuis plusieurs années, avec trois défis principaux : des taux ultra-bas, une réglementation qui s’est considérablement durcie depuis 2008 et la survenance de nouveaux acteurs.

Au-delà de ce contexte, le secteur connaît des mutations technologiques majeures. La première d’entre elles concerne la donnée. Ainsi, l’open banking désigne une tendance de fond qui pousse à l’ouverture des systèmes d’information des banques et le partage des données de leurs clients (identité, historiques de transactions…). Un nouvel écosystème bancaire ouvert se dessine progressivement, dans lequel de multiples acteurs (banques, établissements de paiement, éditeurs technologiques…) partagent des données et intègrent les services des uns et des autres dans leurs propres interfaces, permettant à de nouveaux services et outils de voir le jour.

Autre évolution majeure : la BaaS, ou bank As A Service. Historiquement, la banque de détail était une industrie de coûts fixes. L’ouverture des donnée, la bascule sur le cloud et l’APIsation des systèmes bancaires rendent désormais caduques ces modèles de production fermés et verticalement intégrés. Chacune des briques de production des services financiers peut désormais être proposée « As-a-service ». Cette transformation conduit à une bascule d’un modèle économique à coûts fixes vers une logique de coûts variables. En externalisant leur banking system, les challengers digitaux peuvent ainsi se lancer avec des coûts et des délais compressés.

Enfin, le secteur ne peut pas rester complètement à l’écart du phénomène des super-apps qui progressivement modifient les usages en agrégeant des services issus d’univers de besoins très différents. Cette évolution peut lentement rendre obsolète la façon de servir les clients et nécessite probablement le développement de ce que l’on pourrait qualifier de « finance embarquée ».

2. L’AVENIR DES ACTEURS TRADITIONNELS

Les banques traditionnelles ont globalement résisté aux vents contraires cités précédemment, avec, depuis dix ans, des revenus qui ne se sont pas effondrés, même si leur croissance s’est avérée plutôt modérée.

Les acteurs traditionnels conservent un certain nombre de points forts. D’abord les banques historiques disposent de gammes de produits complètes, qui couvrent bien sûr la banque au quotidien (compte, carte, forfaits…) mais aussi les univers bilanciels du crédit et de l’épargne. Ranger l’informatique des grandes banques dans les points forts peut sembler provocateur. Néanmoins, ces grands systèmes, à défaut d’être agiles, sont souvent d’une très grande robustesse, tout en ayant permis de réduire l’écart technologique avec les néobanques. Enfin, les acteurs traditionnels sont puissants financièrement, et capables d’investir pour accélérer sur un plan technologique quand il le faut.

Ces acteurs ont quelques points faibles naturellement. Le principal concerne l’expérience client. Mais le sujet ne concerne pas l’écart avec les néobanques, qui a été le plus souvent comblé, mais plutôt avec des acteurs purement technologiques par exemple. Dans le mouvement de convergence des univers de besoins, cela peut constituer un handicap pour le secteur financier dans son ensemble. Un autre point faible concerne la faible marge de manoeuvre en matière de réduction des effectifs ou des agences s’il fallait mettre en oeuvre des programmes massifs de baisse des coûts.

Ces acteurs déploient ou vont devoir déployer plusieurs natures de stratégies. Il y a d’abord des actions de nature financière, soit de concentration, soit de restructuration. La concentration vise à céder toutes les activités éloignées des marchés principaux pour être le plus gros possible sur les marchés domestiques. Les restructurations, en Espagne notamment, mais aussi en France avec le rapprochement SG et CDN, visent à abaisser le point mort.

D’autres actions devront être mises en oeuvre par les banques. Sur le plan informatique, il arrivera un moment, plus très loin, où le manque d’agilité des systèmes historiques ne sera plus compensé par leur robustesse. Les évolutions vont s’accélérer et la vitesse d’évolution va devenir clef.

Enfin, les acteurs traditionnels vont devoir repenser leurs modèles de distribution à l’aune du digital et de la convergence du service des grandes natures de besoins, qui vont permettre la finance embarquée. L’idée de cette dernière est d’intégrer la souscription du produit financier directement au parcours de consommation ou d’achat du client. Le service financier devient ainsi disponible de façon contextuelle et digitale.

3. L’AVENIR DES NÉOBANQUES

Les néobanques se sont développées par vagues successives depuis plus de vingt ans, et la dernière vague a vu apparaître des acteurs se développant rapidement et acquérant des clients par millions et capable de lever des fonds colossaux sur la promesse d’un basculement massif de clients vers leur modèle.

Le premier point fort des néobanques concerne leur technologie. Etant partis de zéro sur le plan de l’IT, elles ont pu s’appuyer sur la BaaS pour développer exactement ce dont ils avaient besoin et avec le bon niveau d’expérience client. Par ailleurs, ces acteurs ciblent généralement des segments précis et proposent en conséquence une offre et un parcours client parfaitement adaptés, ce qui est plus difficile pour les grandes banques généralistes.

Les points faibles sont souvent le corollaire de leurs points forts. L’offre limitée permet certes de mieux répondre à certains besoins précis, mais dans un monde où la technologie permet l’émergence de plateformes multi-services, n’adresser qu’une partie des besoins en matière de services financiers ne va pas forcément dans le bon sens et place les néobanques à la périphérie d’un métier qui lui-même n’est pas le mieux placé dans le mouvement de convergence des besoins. Mais si l’offre est limitée, ce n’est pas forcément par choix. Développer l’univers du crédit et de l’épargne, le plus souvent absent au sein des néobanques, nécessiterait de changer de dimension en matière de contrôles et de consommation de capital notamment. Enfin, la conséquence de cette offre limitée est l’incapacité à capter en masse le client le plus rentable de la banque de détail, le bancarisé principal. Cela explique la faiblesse des revenus, qui plafonnent à vingt euros par client.

Cela ne condamne pas forcément l’avenir des néobanques. Déjà, il faut distinguer les pays matures des pays non matures en matière de bancarisation. Dans les pays peu bancarisés, les néobanques ont souvent un boulevard devant elles, à l’image de Nubank au Brésil (40 millions de clients). Dans les pays ultra-bancarisés, l’histoire est différente. La faiblesse des revenus et le mouvement de convergence des grandes natures de besoin devraient obliger les néobanques à réaliser des choix. Elles peuvent étendre d’urgence leur offre au bilan, comme Revolut semble l’entrevoir. Elles peuvent aussi décider de sauter l’étape du bilan pour élargir directement leur offre à d’autres univers de besoins, comme le réalise Tinkoff. Elles peuvent enfin se faire racheter par un acteur traditionnel qui y verrait un intérêt sur un plan technologique, sans trop tarder néanmoins.

Le secteur de la banque de détail est plus que jamais sous le coup de transformations majeures, soit endogènes, comme celles qui touchent à la donnée et à la BaaS, soit exogènes, comme le développement de plateformes servant plusieurs natures de grandes besoins, avec à l’origine un souhait de « simplification » de la part des consommateurs. Dans ce contexte, les acteurs t raditionnels se doivent d’adresser deux sujets majeurs : la finance embarquée d’une part, et peut-être la bascule « à terme » vers des systèmes réso lument plus agiles pour rester compétitifs. Quant aux néobanques, il faudra d’urgence étendre l’of fre au bilan, au risque de perdre en agilité, soit à d’autres univers de besoins.

Mais le secteur financier dans son ensemble devra probablement chercher à simplifier drastiquement la consommation de leurs services, face à des acteurs non financiers qui ont déjà opéré cette transformation.


La valeur travail a-t-elle encore un sens ?

Sophie Chassat
Philosophe, Associée chez Wemean

« Dès lors que « l’exercice du métier » ne peut pas être directement mis en relation avec les valeurs spirituelles suprêmes de la civilisation – et que, à l’inverse, il ne peut pas être éprouvé subjectivement comme une simple contrainte économique –, l’individu renonce généralement à lui donner un sens », écrit en 1905 Max Weber à la fin de L’Éthique protestante et l’Esprit du capitalisme. Or n’est-ce pas ce que nous observons un siècle plus tard ? Un monde où la valeur travail semble avoir perdu de son évidence : comme si elle était « en voie de disparition »…

Big Quit aux Etats-Unis, hashtags #quitmyjob, #nodreamjob ou #no_labor, communautés aux millions de followers comme le groupe Antiwork du réseau social Reddit : les signaux se multiplient pour manifester une forme de révolte, voire de dégoût du travail. Pas seulement une évolution de celui-ci (comme le télétravail et la fin du salariat comme modèle d’emploi exclusif pourraient le laisser penser), mais un mouvement de remise en question bien plus profond : comme un refus de travailler. On est loin de la déclaration d’un Chaplin faisant de l’idéal du travail celui de la vie même : « Travailler, c’est vivre – et j’adore vivre ! »

Pour Max Weber, le travail s’est imposé comme valeur structurante de nos sociétés au moment où la réforme protestante s’est définitivement ancrée dans le paysage européen et triomphalement exportée aux Etats-Unis. Mais le sociologue ne cesse de le répéter : le succès de cette ardeur au travail ne s’explique que par l’intérêt spirituel qui lui était alors lié. C’est parce qu’une vie consacrée au labeur était le signe le plus certain d’une élection par Dieu que des hommes s’y adonnèrent avec tant d’ardeur.

Quand la valeur éthique du travail ne fut plus religieuse, elle devint sociale : l’indice de l’intégration à la communauté et de la reconnaissance de l’accomplissement individuel.

Et aujourd’hui ? À quoi tient la valeur spirituelle du travail quand vacille le paradigme de la (sur)production et de la croissance sans limite, et au moment où la « monnaie hélicoptère » a coulé à flots pendant de longs mois ? Les jeunes générations, qui bousculent avec le plus de véhémence l’évidence de cette valeur travail, doivent nous amener à expliciter le sens de cette dernière pour le XXIe siècle : car les études se multiplient pour montrer que les jeunes ne sont plus prêts à travailler à n’importe quel prix.

La philosophe Simone Weil, qui avait travaillé en usine, croyait en une « civilisation du travail », dans laquelle ce dernier deviendrait « la valeur la plus haute, par son rapport avec l’homme qui l’exécute [et non] par son rapport avec ce qu’il produit. » Faire de l’homme la mesure du travail : voilà peut-être ce par quoi il faut commencer pour, demain, associer à nouveau une dimension éthique au travail – la seule à même d’en justifier la valorisation. « Notre époque a pour mission propre, pour vocation, la constitution d’une civilisation fondée sur la spiritualité du travail », écrivait encore Simone Weil.

____________

1 Max Weber, L’Éthique protestante et l’esprit du capitalisme, Flammarion « Champs Classiques », 2017.

2 Dominique Méda, Le Travail ; Une Valeur en voie de disparition ?, Flammarion « Champs-Essais », 2010.

3 David Robinson Chaplin: His Life and Art, 2013, Penguin Biography.


Le taux d’actualisation de long terme

Philippe Raimbourg
Directeur de l’Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne)
Professeur affilié à ESCP Business School

Si depuis Irving Fisher, on sait que la valeur d’un actif se confond avec la valeur actualisée des flux financiers qu’il est susceptible de générer, on sait aussi que le processus d’actualisation érode fortement les flux de long terme et réduit d’autant l’attrait des projets de maturité importante.

CE RÉSULTAT EST LA CONSÉQUENCE D’UN DOUBLE PHÉNOMÈNE :

le passage du temps qui, mécaniquement, rabote la valeur actuelle de tous les flux éloignés,
• mais aussi, la forme de la structure des taux selon le terme qui conduit généralement à retenir des taux d’actualisation d’autant plus élevés que leur échéance est lointaine ; on constate en effet, habituellement, que la yield curve est croissante avec la maturité du flux considéré.

LE PROCESSUS D’ACTUALISATION ÉRODE FORTEMENT LES FLUX DE LONG TERME

Pour cela, la majorité des entreprises investissent généralement dans des projets de court et moyen terme et laissent les projets de long terme à des organismes étatiques ou proches des Pouvoirs Publics. On cherchera ici à préciser l’éventuel caractère inéluctable de ce constat et sous quelles conditions les taux de long terme peuvent être moins pénalisants que ceux de court terme. Cela nous amènera dans un premier temps à préciser la notion de « taux d’actualisation d’équilibre ».

LE TAUX D’ACTUALISATION D’ÉQUILIBRE

On ne traite ici que du taux sans risque, avant prise en compte d’une éventuelle prime de risque. Dans un contexte de maximisation du bien-être inter-temporel des agents économiques, le taux d’actualisation d’équilibre est celui qui permet à un agent de choisir entre un investissement (c’est-à-dire une diminution de son bien-être immédiat résultant d’une réduction de sa consommation au temps 0 au profit d’une épargne autorisant l’investissement) et une consommation future, fruit de l’investissement réalisé.

ON MONTRE AISÉMENT QUE DEUX COMPOSANTES DÉTERMINENT LE TAUX D’ACTUALISATION D’ÉQUILIBRE :

le taux de préférence pour le présent des agents économiques ;
un éventuel effet-richesse qui est positif lorsqu’une croissance de la consommation est attendue.

Le taux de préférence pour le présent (ou encore, taux d’impatience) est un paramètre individuel dont la valeur peut fortement varier d’un individu à l’autre. Cependant, envisagé d’un point de vue macroéconomique, ce taux se situe dans une perspective intergénérationnelle qui nous incite à penser que la valeur de ce paramètre doit être proche de zéro. Aucun argument ne peut en effet justifier que l’on favorise une génération plutôt qu’une autre.

L’effet richesse résulte d’une croissance de l’économie permettant aux agents économiques d’accroître leur consommation au cours du temps. Ces perspectives d’accroissement de la consommation amènent les agents économiques à privilégier le temps présent et à utiliser un facteur d’actualisation d’autant plus élevé qu’ils envisagent un horizon lointain.

Parallèlement à cet éventuel effet richesse, on comprend aussi que le taux d’actualisation d’équilibre dépend des caractéristiques et des choix des agents. Il se peut qu’ils préfèrent fortement lisser dans le temps leur consommation, ou au contraire qu’ils n’éprouvent aucune aversion face à une éventuelle inégalité de la distribution inter-temporelle de leur consommation. Techniquement, une fois la fonction d’utilité des consommateurs connue (ou supposée), c’est le degré de curvature de cette fonction qui nous fournira le coefficient d’aversion R des consommateurs au risque de déséquilibre inter-temporel de leur consommation.

Si ce coefficient est égal à 1, cela signifie que le consommateur sera prêt à réduire sa consommation d’une unité au temps 0 en vue de bénéficier d’une unité de consommation supplémentaire au temps 1. Un coefficient de 2 signifierait qu’il est prêt pour cela à réduire sa consommation de 2 unités au temps 0. Il est raisonnable de penser que R est compris entre 1 et 2.

Dans cet te perspective, Ramsey en 1928 a proposé une formulation tout à la fois simple et éclairante du taux d’actualisation d’équilibre. En retenant une fonction puissance pour mesurer l’utilité perçue par le consommateur, il a montré que l’effet richesse dans la formation du taux d’actualisation d’équilibre était égal au produit du taux de croissance nominal par période de l’économie et du coefficient d’aversion R des consommateurs. Il est ainsi conduit à la relation suivante :

r = δ + gR

où r est le taux d’actualisation d’équilibre, δ le taux d’impatience, g le taux de croissance nominal par période de l’économie et R le coefficient d’aversion des consommateurs au risque de déséquilibre inter-temporel de leur consommation.

En admet tant une valeur très faible pour δ et une valeur proche de l’unité pour R, on voit que le taux de croissance nominal de l’économie constitue une valeur de référence pour le taux d’actualisation d’équilibre. Ce taux d’actualisation d’équilibre, comme cela a été précisé, est le taux sans risque qui doit être utilisé pour valoriser des actifs sans risque ; si l’on s’intéresse à des actifs risqués, il faut bien sûr lui adjoindre une prime de risque.

Dans le contexte actuel, la relation de Ramsey permet d’apprécier l’ampleur des effets des politiques non conventionnelles des banques centrales qui ont fait émerger sur les marchés financiers un taux sans risque proche de 0%.

LE TAUX D’ACTUALISATION DE LONG TERME

La notion de taux d’actualisation d’équilibre étant précisée, on peut maintenant aborder la question de la structure des taux d’actualisation selon leur terme.

On vient de voir que le taux d’actualisation est déterminé par le taux d’impatience des consommateurs, leur coefficient d’aversion R et les anticipations de taux de croissance de l’économie. En considérant comme négligeable le taux d’impatience et en supposant que le coefficient d’aversion reste inchangé au cours du temps, cela confère un rôle très important aux perspectives économiques : le taux d’actualisation selon la maturité va principalement refléter les attentes des agents économiques en matière de taux de croissance futur.

Ainsi, si l’on anticipe une croissance économique à un taux constant g, la structure des taux selon le terme sera plate. Si l’on anticipe une accélération de la croissance (une croissance du taux de croissance), la structure des taux sera croissante avec la maturité. En revanche, si l’on s’attend à une décélération de la croissance, la structure des taux sera décroissante.

On perçoit ainsi la fonction informative de la structure des taux selon le terme qui permettra de renseigner l’observateur sur les anticipations des opérateurs du marché financier en matière d’anticipations du taux de croissance de l’économie.

ON VOIT AUSSI QUE LA PÉNALISATION DES CASH FLOWS DE LONG TERME PAR LE PROCESSUS D’ACTUALISATION N’EST PAS INÉLUCTABLE.

Lorsque les perspectives économiques sont baissières, la structure des taux devrait être décroissante. Mais il ne faut pas forcément en déduire que cette forme de la yield curve est synonyme de catastrophe annoncée. Elle peut très bien correspondre à un retour à la normale après une période de surchauffe. Par exemple, pour revenir à l’actualité, si le taux de croissance de l’économie est particulièrement élevé du fait de phénomènes de rattrapage, et marque un écart important par rapport au taux de croissance soutenable dans le long terme, la structure des taux devrait être décroissante et le taux d’actualisation court plus élevé que le taux d’actualisation applicable à des échéances plus lointaines.

Ce n’est que l’action des banques centrales, surtout perceptible sur des échéances courtes, qui empêche aujourd’hui une telle observation statistique.


Quand amélioration ne rime pas forcément avec simplification

Hervé Goulletquer
Senior Economic Advisor, Accuracy

Aujourd’hui, même si l’affirmation vaut plus pour les pays développés que pour les émergents, le panorama économique est a priori plus favorable. L’épidémie est en passe de se transformer en endémie, la reprise économique est considérée comme devant être durable, avec un retard de croissance accumulé durant la crise de la COVID le plus souvent comblé, et, dernier point et non des moindres, les prix accélèrent.

Ce dernier mouvement est même spectaculaire, avec un glissement sur un an des prix à la consommation, passé respectivement en l’espace de deux ans (du début 2020 au début 2022) de 1,9% à 7,5% aux Etats-Unis et de 1,4% à 5,1% en Zone Euro. Qui plus est cette accélération est plus forte et dure plus longtemps que l’idée qu’on se faisait des implications de la réouverture d’une économie, préalablement entravée par les mesures prises de santé publique, sur le profil des prix.

Face à ces dynamiques sur le double front sanitaire et de l’économie réelle, les regards jetés sur les initiatives à prendre par les banques centrales ont évolué. Les marchés de capitaux réclament une normalisation rapide des politiques monétaires : arrêt de la hausse, puis réduction, de la taille des bilans et retour des taux directeurs vers des niveaux jugés plus normaux. Ce qui ne va pas sans créer tant des pressions haussières et des déformations des courbes des taux que de pertes de repères sur les marchés d’actions.

Faisons à ce stade un petit rappel, pour prendre la mesure du chemin à éventuellement parcourir. Durant la crise épidémique, les principales banques centrales occidentales (Fed américaine, BCE en Zone Euro, Banque du Japon et Banque d’Angleterre) ont accepté de gonfler de façon spectaculaire la taille de leur bilan. A elles-quatre, le ratio bilan/PIB est passé de 36% au début de 2020 à 60% à la fin de 2021. Il s’agit de la contrepartie des obligations achetées et des liquidités injectées dans les systèmes bancaires respectifs. Dans le même temps, les taux directeurs ont été positionnés ou maintenus le plus bas possible (en fonction des caractéristiques économiques et financières propres à chaque pays ou zone) : à +0,25% aux Etats-Unis, à -0,50% en Zone Euro, à-0,10% au Japon et à +0,10% au Royaume-Uni. Ce couple d’initiatives répondait à l’ambition d’assurer les conditions monétaires et financières les plus favorables. Il a « complémenté » les actions prises par les administrations publiques : souvent des prêts garantis aux entreprises et des mesures de chômages techniques en parallèle d’un soutien important à l’économie (de l’ordre de 4,5 points de PIB en moyenne pour la zone OCDE ; attention les deux types de mesures peuvent en partie se recouper).

Essayons maintenant de poser le débat de politique monétaire. Le net rebond de la croissance économique en 2021, le sentiment largement partagé que l’activité se maintiendra sur une tendance haussière et une évolution des prix qui a du mal à rentrer dans le rang forment un tout qui justifie de démarrer le processus de normalisation du réglage monétaire. Bien sûr, le calendrier et le rythme dépendent des conditions propres à chaque géographie.

IL FAUT TOUTEFOIS AVOIR CONSCIENCE DU CARACTÈRE « ORIGINAL » DE LA SITUATION ACTUELLE.

La dynamique inflationniste du moment n’est pas avant tout le reflet d’une demande trop forte, qui viendrait buter sur des capacités d’offre pleinement utilisées. Elle traduit plutôt, et pour beaucoup, des appareils de production et de distribution qui ne peuvent fonctionner à un régime optimal, à cause de la désorganisation induite par la crise épidémique et parfois aussi par les réponses apportées par les politiques publiques. Ce retour à la normale, si possible rapidement, est une nécessité ; sauf à accepter des pertes durables de capacités d’offre. A ce titre, il faut être attentif à ce que le chemin vers la neutralité monétaire ne soit pas emprunté avec une « vitesse » excessive. Au risque sinon d’une perte de portance de la croissance économique et d’un brusque décrochage des marchés financiers, qui feraient l’un et l’autre s’éloigner du but recherché.

Un autre point, même s’il est d’une facture plus classique, doit être mentionné. L’accélération des prix à la consommation n’est pas sans incidence sur les ménages. Elle grignote leur pouvoir d’achat et agit négativement sur leur confiance ; toutes choses qui militent en faveur d’un ralentissement de la consommation privée et, par-delà, de l’activité économique.

IL Y A ICI UN ÉLÉMENT SUPPLÉMENTAIRE EN FAVEUR DU GRADUALISME DANS LA CONDUITE DE CE PROCESSUS DE NORMALISATION MONÉTAIRE.

Comment les deux « grandes » banques centrales, que sont la Fed américaine et la BCE européenne, s’y prennent-elles pour tracer leur chemin sur cette piste, balisée d’un côté par l’impatience des marchés de capitaux et de l’autre par la nécessaire prise en compte du caractère original du moment présent et du doigté que cela implique dans la conduite de la politique monétaire ?

Il reste alors à observer une certaine « marche en crabe » de la Fed et de la BCE. Expliquons-nous et commençons par la banque centrale américaine. La phrase-clé du communiqué publié au sortir du plus récent comité de politique monétaire du 26 janvier est sans doute la suivante : « Avec l’inflation bien supérieur à 2 % et un marché du travail vigoureux, le comité s’attend à ce qu’il soit bientôt approprié de relever la fourchette cible du taux des fonds fédéraux ». Sans surprise, le taux directeur a bien été relevé de 25 centimes le 16 mars, et comme il n’y a plus de forward guidance (guidage prospectif), le rythme de la normalisation monétaire sera data dependent (calé sur l’image de l’économie dessinée par les indicateurs conjoncturels les plus récemment publiés). Dans un tout premier temps, l’attention portera prioritairement sur le profil des prix. Puis, l’importance accordée au profil de l’activité ira croissante.

Le marché, avec l’idée qu’il se fait de la croissance et de l’inflation, est prompt à anticiper un rythme rapide de remontée du taux directeur. La Fed, après avoir donné son aval à l’initialisation du mouvement, tente d’en contrôler le tempo. Ce qui n’est pas très facile !

Passons à la BCE. Le marché a retenu deux choses de la réunion du Conseil des gouverneurs du 3 février : les risques concernant les évolutions à venir de l’inflation sont orientés à la hausse et la possibilité d’une hausse du taux directeur dès cette année n’est pas écartée.

Bien sûr, l’analyse proposée était davantage balancée et depuis tant Christine Lagarde que certains autres membres du Conseil, comme François Villeroy de Galhau, s’emploient à modérer des anticipations de marché sans doute considérées comme excessives.

On le perçoit bien ; tout va être question de bon calendrier et de bon rythme dans cet exercice de normalisation qui démarre. In medio stat virtus, nous rappelle Aristote. Mais oh combien la déclinaison peut être difficile !

IMPACT DE L’INVASION DE L’UKRAINE PAR LA RUSSIE :
NÉCESSAIRE RÉVISION DU DIAGNOSTIC CONJONCTUREL DANS UN SENS MOINS FAVORABLE


Le monde hors Russie, singulièrement l’Europe, ne « passera pas entre les gouttes ». La poursuite de l’accélération des prix et un repli de la confiance en sont les ingrédients principaux. Ainsi, le prix du pétrole brut a augmenté de plus de 30% (+35 dollars par baril) depuis le début des opérations militaires et celui du gaz « européen » a presque doublé. De même, il n’est pas possible d’extrapoler le rebond des indices PMI de beaucoup de pays en février ; ce n’est plus que de l’histoire ancienne. La croissance va ralentir et l’inflation se faire plus vive ; avec des Etats-Unis moins pénalisés que la Zone Euro.

Il est possible que la vigilance (la prudence) doive être encore plus grande. Ce nouveau choc (dont l’ampleur n’est pas encore connu) vient ébranler un système économique toujours convalescent : la crise épidémique, suivie d’un difficile rééquilibrage offre –demande qui crée une dynamique haussière des prix inusitée si on prend comme référence les décennies les plus récentes. Sa résistance est-elle plus faible à ce titre ?

• Dans ces conditions, la normalisation monétaire se fera plus graduelle qu’anticipée. Les banques centrales devraient « enjamber » le renchérissement des produits énergétiques (et aussi alimentaires) et se focaliser davantage sur la dynamique des prix hors ces deux composantes ; ce qu’on appelle le noyau dur. L’hypothèse la plus probable est que celui-ci connaisse un tempo moins marqué qu’escompté ; avant tout du fait d’une demande moins bien orientée.


Lire la troisième édition de Accuracy Talks Straight >

More accuracy news

August 2022

Accuracy conseille le Groupe Casino

Accuracy a réalisé la due diligence financière pour le Groupe Casino dans le cadre de la vente de la majorité de ses parts dans GreenYellow à Ardian. ...

July 2022

Accuracy Eco Podcast

Dans la continuité de son Economic Brief, Accuracy a le plaisir de vous présenter Accuracy Eco Podcast.Retrouvez Hervé Goulletquer et David Chollet pour déchiffrer ensemble les dernières actualités économiques.En 10 minutes, comprenez mieux le monde qui vous entoure et...