Pour la première fois, Accuracy a accueilli des acteurs publics, privés et associatifs pour un séminaire national inédit organisé par La Place Stratégique, Gendarmerie Nationale, et Observatoire des métavers. Plusieurs tables rondes ont été proposées sur des sujets clés du métavers :
• L’importance du métavers aujourd’hui et dans le futur • Les risques potentiels de cette nouvelle technologie • L’encadrement de l’usage du métavers • Le commerce dans le métavers
A cette occasion, Jean Barrere, associé chez Accuracy, a répondu à nos questions.
Accuracy, le cabinet de conseil international indépendant, renforce sa partnership avec la nomination de quatre nouveaux associés. Cela porte le nombre total d’associés d’Accuracy à 62, répartis dans 13 pays.
Accuracy a conseillé Gi Group Holding dans le cadre de son acquisition d’Eupro Holding AG, la holding d’un groupe leader de sociétés basées en Suisse (“Eupro”) et spécialisées dans le secteur du recrutement et des ressources humaines.
Pour notre sixième édition de Accuracy Talks Straight, Jean Barrère introduit le thème de la data, avant de laisser Romain Proglio nous présenter Wintics, le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. Nous analyserons ensuite la data en Chine avec Frédéric Recordon et Helena Javitte. Sophie Chassat, Philosophe et associée chez Wemean, posera la question de si la data a une conscience. Ensuite, nous évaluerons notre patrimoine de données avec Isabelle Comyn-Wattiau, Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’Information. Enfin, nous nous focaliserons sur la double transition énergétique et digitale avec Hervé Goulletquer, Senior Economic Advisor.
Comme le fit Victor Hugo pour les travailleurs de la mer, il faut commencer par un hommage appuyé à tous les travailleurs de la data.
Observons le Chief Data Officer structurer la distinction fondamentale entre « donnée brute », « information » et « connaissance », et nous interpeller sur le caractère ô combien complexe du passage d’une catégorie à l’autre.
Voyons le CIO mobiliser des technologies exponentielles à travers des plateformes connectées pour valoriser en accéléré l’actif informationnel de l’organisation.
Un instant. Apprécions la grâce d’un geste baudelairien. Le Data Scientist infuse de l’art dans la data, « vous m’avez donné de la boue, et j’en ai fait de l’or », dit-il !
Reprenons de la vitesse avec le décideur, à l’affût d’un avantage informationnel, et embarquons avec le dirigeant. Sur une mer agitée, il engage son organisation dans des transformations data driven difficiles !
Si le DRH est sommé de créer des parcours dédiés pour attirer et fidéliser ces profils rares, le financier s’interroge lui sur les multiples formes de valeur de la data : valeur de marché, valeur patrimoniale, valeur économique… Comment évaluer cet actif intangible ?
Avançons et applaudissons ! Sur le devant de la scène, le politique pose des limites au tout numérique, et arrange ce qui est dérangé du fait de l’utilisation de nos data privées !
Place à la pensée. Derrière le rideau, le philosophe dérange l’arrangé de nos vies numériques, et questionne l’Être-Data : le numérique est-il désormais le langage de la vérité ? Tout vécu humain est-il traduisible sous la forme de 0 et de 1 ?
Quand un sujet si protéiforme comme celui de la data mobilise autant de profils et de savoirs, de capital et de liquidité, d’intelligence et de technique, de matière à dire et à contredire, quand de cette dialectique naît tant de richesses et de nouvelles formes de vivre-ensemble, c’est qu’il y a là, au fond, un débat essentiel qu’il s’agit de faire vivre.
Créée fin 2017 par trois fondateurs, et forte de quatre années de R&D, Wintics se positionne comme le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. La société commercialise ses produits d’analyse auprès de quatres types de gestionnaires d’infrastructures de mobilité : collectivités territoriales, gestionnaires de transport en commun, aéroports, ports. Pour les collectivités territoriales, la start-up a développé un logiciel d’Intelligence Artificielle particulièrement innovant (appelé Cityvision), qui peut se brancher automatiquement à n’importe quelle caméra, optique ou thermique, récente ou d’ancienne génération, afin d’en extraire de multiples données sur la mobilité, la sécurité des espaces publics et la propreté urbaine. Le logiciel sera par exemple capable d’analyser la fréquentation et les usages d’une piste cyclable afin d’aider la ville à aménager sa mobilité en conséquence.
La solution offre également à ses clients la capacité de piloter en temps réel l’infrastructure, par exemple en déversant dans les feux tricolores les données collectées et analysées par Wintics, ce qui participe à fluidifier le trafic de manière précise et pertinente.
A destination des gestionnaires de transport, Wintics offre la possibilité de visualiser en temps réel les flux de déplacement et le niveau d’affluence. Les gestionnaires d’aéroports, quant à eux, peuvent par exemple superviser les différents flux de passagers arrivant sur site et fluidifier leurs parcours au sein de l’aéroport grâce à un pilotage en temps réel des files d’attente aux guichets et aux contrôles. Wintics se positionne ainsi comme une solution innovante et stratégique afin de rendre les villes plus vertes en favorisant l’essor et l’aménagement des mobilités douces, l’attractivité des transports en commun et la fluidification des déplacements. La caméra devient un outil de pilotage et d’urbanisme efficace et plus sûr. Enfin, Wintics est une société intégralement française, qui propose une solution 100% made in France.
Lauréats des éditions 2018 et 2019 du programme d’innovation de la ville de Paris, certifiés par le label Greentech Innovation et ayant intégré en 2020 les meilleures start-up d’Intelligence Artificielle en Europe dans le secteur de la mobilité, les experts de Wintics (environ 15 aujourd’hui) ont déjà à leur actif des réalisations dans plus de 30 villes françaises.
La data, ultime raison de s’intéresser à la Chine ?
Pour quelles raisons faudrait-il encore s’intéresser à la Chine ? Les signaux qu’elle envoie d’un pays cadenassé, tenté par un repli sur soi, affirmant un modèle sociétal alternatif, conduisent désormais à l’appréhender sous l’angle d’une analyse de risques. Les dernières études des chambres de commerces européennes et américaine en Chine témoignent d’une réévaluation significative des stratégies des entreprises étrangères1.
Et pourtant dans ce contexte assombri, pour nous qui travaillons en Chine depuis plus de 10 ans, la Chine est un pays qui mérite l’attention des Européens. Mais les raisons les plus pertinentes de s’y intéresser ne sont pas forcément celles qui viennent à l’esprit en premier. Certaines pourraient même s’avérer dérangeantes. Et si la Chine était en avance sur l’Occident ? En avance dans les réflexions qui structurent le monde de demain ? A défaut d’un eldorado mercantile… des idées !
A la source de l’avance chinoise se trouve la donnée. Le pays dispose de nombreux atouts. Structurel : 18% de la population mondiale offre une masse de test inégalable. Conjoncturel : sa réglementation ou encore l’abondance des investissements dans la tech. Culturel : le lancement de solutions quick & dirty qui seront améliorées ou abandonnées là où les occidentaux s’efforceront de lancer des produits plus aboutis.
Cet article se propose de scruter sous 3 angles la manière dont la Chine considère la donnée. (1) Comment elle la réglemente pour en faire un avantage concurrentiel. (2) Comment elle est au coeur de la transformation du retail. (3) Comment elle l’utilise pour créer de nouveaux business modèles.
1. UNE RÉGLEMENTATION FAVORISANT L’ÉMERGENCE D’UN AVANTAGE CONCURRENTIEL
Les 1ères réflexions sur les données comme facteur de product ion ont commencé en Chine au début des années 2000 et se sont poursuivies au cours de la décennie suivante par l’édification d’un cadre réglementaire favorisant l’émergence d’un marché des données. Le tournant s’est produit en avril 2020 lorsque la donnée a été of ficiellement considérée comme le 5ème facteur de production, au même titre que le capital, la main d’oeuvre, le foncier et la technologie.
C’est l’acte de naissance d’une économie des données conçue comme l’accélérateur disruptif de la croissance des entreprises chinoises.
Les autorités encouragent les acteurs à structurer leurs données pour en faciliter le partage. Pour cela, le gouvernement a mis en oeuvre des plateformes publiques. Dès 2019, la SASAC, organe gouvernemental qui supervise les entreprises publiques, a publié une liste de 28 entreprises publiques et privées chargées de fédérer leurs industries au moyen de plateformes sectorielles.
La China Aerospace Science & Industry Corp. a la charge de l’aéronautique, la CSSC de la construction navale ou encore Haier via sa plateforme COSMOPLAT de 15 secteurs différents (électronique, fabrication industrielle, textile, industrie chimique, etc…).
Le second objectif vise à créer un marché des données. Conduit par les collectivités locales (Shanghai, Pékin, Shenzhen, Hainan, Guangzhou), il prend la forme de zones de libre-échange et de plateformes pilotes de trading de données. Ainsi, le Shanghai Data Exchange Center (SDEC) s’apparente à une bourse technologique garantissant la conformité juridique des transactions pour les entreprises adhérentes là où le Beijing International Big Data Exchange favorise le partage des données publiques au niveau national avec des velléités d’applications internationales.
Ces initiatives montrent que la Chine a commencé à poser les bases de l’économie de la donnée. Elle tâtonne, expérimentant des réponses à cette question cruciale entre toutes : comment transformer la donnée en un nouvel objet de valeur ? Un premier défi réside dans la multitude de données : personnelles, financières, industrielles, métadonnées, etc. tout autant qu’aux formats souvent incompatibles.
Leur standardisation et leurs protocoles d’échanges sont des enjeux cruciaux de leadership dans le monde de demain. En parallèle se pose la question de leur valorisation. La SDEC travaille actuellement sur ces questions de propriété, d’origine, de qualité, de certification et de fixation de leur prix.
On le comprend la Chine s’est engagée dans une réflexion sur ce nouvel actif qu’est devenue la donnée. Elle procède par touches successives avec les acteurs économiques privés et publics à mesure que se construit un champ des possibles gigantesque.
2. LA DONNÉE, AU COEUR DE LA TRANSFORMATION DU RETAIL
« Aujourd’hui nous ne savons pas monétiser la donnée mais nous savons que les gens ne vivront pas sans données. Walmart génère des données de ses ventes tandis que nous faisons du e-commerce et de la logistique pour acquérir de la donnée.
Les gens me parlent de GMV2 mais la GMV n’est pas ce que nous cherchons. Nous vendons simplement pour acquérir de la donnée, et c’est bien différent de Walmart »3.
Voici en quelques mots de Jack Ma, fondateur d’Alibaba, exposée la différence fondamentale entre la Chine et l’Occident.
LÀ OÙ NOUS VOYONS DANS LE E-COMMERCE UN CANAL SUPPLÉMENTAIRE DE DISTRIBUTION, LES CHINOIS Y VOIENT UN GISEMENT DE DONNÉES.
Si la comparaison des chiffres combinés du Black Friday, Thanksgiving et Cyber Monday aux Etats-Unis (25 milliards de dollars) au Double 11 chinois (139 milliards de dollars)4 montre une avance significative de la Chine, elle ne rend absolument pas compte de cette différence de philosophie.
Le fait que la Chine soit beaucoup plus connectée que les sociétés américaine et européenne, que 99,6% des internautes chinois accèdent à internet depuis leur smartphone masquent l’essentiel.
Se limiter à des analyses quantitatives revient à méconnaître la nature disruptive du retail chinois. Les géants du e-commerce ont créé les solutions de paiement innovantes entraînant leur mainmise sur le retail et leur leadership sur le paiement mobile.
Ceci explique la croissance fulgurante du retail qui repose sur une approche fondamentalement différente des acteurs traditionnels. Alibaba offre l’exemple le plus abouti avec son concept de New Retail défini en 2015.
Deux caractéristiques façonnent ce modèle :
(1) Alibaba se positionne avant tout comme un intermédiaire facilitant les échanges entre marchands et clients ; et
(2) Alibaba a modelé un écosystème holistique, chaque segment se nourrissant et nourrissant les autres grâce aux données créées par cet écosystème transactionnel.
Intermédiaire : Alibaba propose aux marchands ses outils digitaux de branding, génération de trafic, etc… tout autant que ses services financiers très appréciés des PME délaissées par les banques. Vis-à-vis des consommateurs : Alibaba met à leur disposition une plateforme universelle pour tous leurs besoins quotidiens : lien social, opérations administratives, prêts à la consommation, etc.
Alibaba se distingue donc profondément de ses équivalents occidentaux. Le 1er opère un écosystème dont l’objet est de produire, analyser et monétiser des données tandis que les seconds restent encore malgré leurs dernières évolutions (cloud, etc…) des distributeurs intégrés dont les données sont une résultante.
Pour Alibaba, le retail est un support, nullement une raison d’être. Son leadership repose moins sur sa GMV que sur sa position centrale dans la génération et l’exploitation des données. Que de chemin parcouru depuis la déclaration de Jack Ma le 16 juin 2016 lors de la China Internet+ Conference 中國互聯網+峰會, Alibaba « ne sait pas monétiser ses données » !
Depuis lors, l’entreprise, entrevoyant d’immenses perspectives bien au-delà de ses revenus actuels, a étoffé son écosystème et ses services. Là se trouve sans nul doute la nouvelle frontière.
3. LA DONNÉE, SOURCE DE NOUVEAUX BUSINESS MODÈLES
Si l’exemple du New Retail illustre cette capacité de la Chine à faire pivoter une industrie de la vente de biens à la monétisation de ses données, le développement spectaculaire des véhicules électriques met en lumière sa capacité à créer ex-nihilo des business modèles innovants.
C’est l’exemple des stations de charges électriques.
Une station de charge électrique diffère d’une station d’essence essentiellement sur deux aspects. D’abord le temps de charge incite les usagers à charger à domicile ou sur leur lieu de travail ce qui se traduit par des taux d’utilisation très faible (inférieur à 5%) des bornes se trouvant dans les espaces publics. Ensuite le prix de l’électricité étant strictement encadré, les marges des opérateurs très faibles s’avèrent insuffisantes pour rentabiliser les investissements.
La solution chinoise a consisté à déplacer le centre d’intérêt du conducteur (point focal du modèle Essence) vers l’écosystème électrique.
Pour être performant un opérateur chinois se conçoit comme une plateforme de services pour les conducteurs, les fournisseurs d’emplacements (i.e. promoteurs), les municipalités dans leur politique de la ville, les électriciens, etc…
Il ne s’agit plus seulement de vendre de l’énergie mais d’optimiser des flux et des prix : trafic automobiles, flux énergétiques, etc… Le point central est une nouvelle fois la donnée.
La start-up X-Charge 智充科技, spécialiste des services SaaS B2B, que notre bureau de Pékin connait bien pour avoir travaillé avec elle, est emblématique de cet te révolution des business modèles.
Elle permet aux opérateurs de stations de charge d’analyser en temps réel leurs données, d’ajuster leurs tarifs par borne en fonction du taux d’utilisation et du trafic routier, de stocker l’électricité aux meilleures conditions et de la revendre aux électriciens ou aux gestionnaires d’immeubles lors de pics, etc… La start-up a développé des modèles prédictifs d’activité et de revenus très appréciés des opérateurs. Nulle surprise que Shell Ventures ait investi lors de sa Série-B ; au-delà d’un investissement financier c’est bien un modèle disruptif que la Major est venue chercher en Chine.
De toute évidence, la course pour construire le monde de demain a commencé et la Chine semble bien décidée à établir son leadership à travers une innovation pilotée par l’Etat et relayée par les géants de la tech. Dans cette stratégie, la donnée est clairement considérée comme un actif clé.
Elle est conçue pour asseoir la place future du pays dans le monde. Parallèlement la monétisation des données génèrera des revenus gigantesques que seuls quelques acteurs maitriseront suffisamment pour maximiser leurs gains.
Dans certains secteurs, seule la monétisation de la donnée peut, au moins en phase transitoire, rendre viable des business modèles très capitalistiques. Pour toutes ces raisons, il nous parait essentiel de s’intéresser à ces sujets et pourquoi pas de s’inspirer de certaines initiatives de la Chine.
____________
1La dernière étude en date est celle de la Chambre de Commerce et de l’Industrie France Chine CCIFC conduite du 2 au 14 septembre 2022 avec 303 entreprises françaises répondantes ; 79% considèrent une détérioration de l’image de la Chine, 62% voient leurs profits affectés, 58% revoient leur stratégie d’investissements en Chine ; 43% ne prévoient pas d’accroître leur présence dans les 3 prochaines années ; 16% envisagent une réduction de leur présence en Chine 2 GMV : Gross Merchandise Value, volume brut de marchandises 3 Discours de Jack Ma lors de la China Internet+ Conference (中國互遜國+痢全) le 16 Juin 2016 4 Données 2021, sources : Forbes, Bloomberg
Sophie Chassat Philosophe, Associée chez Wemean
Zombie Data
“Is Data conscious?” Cette question, posée à propos d’un personnage de la série Star Trek, est reprise par le philosophe David Chalmers dans son dernier ouvrage “Reality +”1. Data est le nom d’un androïde. Dans l’épisode de la série intitulé “The Measure of a Man”, un procès a lieu pour déterminer si Data est un être intelligent et conscient.
Pas de doute sur l’intelligence du robot humanoïde : Data a la capacité d’apprendre, de comprendre et de gérer des situations nouvelles. En revanche, la question de savoir si Data est conscient reste sans réponse. Data disposet-il d’une vie intérieure avec des perceptions, des émotions et des pensées conscientes ? Ou Data est-il ce que les philosophe appellent un « zombie » ? En philosophie, un zombie est un système qui, extérieurement, se comporte comme un être conscient, mais qui, intérieurement, n’a aucune expérience consciente. Il se conduit de manière intelligente, mais n’a ni vie intérieure ni réflexivité de ses faits et gestes.
Chalmers part de ce récit pour se demander si un système digital peut être conscient ou si seuls les êtres humains et les animaux sont doués de conscience. Pour ce philosophe australien décoiffant, un système simulant parfaitement le fonctionnement d’un cerveau pourrait être conscient au même titre qu’un cerveau biologique. Ce qui l’entraîne vers de vertigineuses spéculations : mais alors, en miroir, notre conscience actuelle ne serait-elle pas elle-même l’effet d’une simulation ? Ne vivrions-nous pas déjà dans un métavers et notre Dieu ne serait-il pas un ordinateur ?
Si nous faisons de l’histoire du bien nommé Data une allégorie, nous pouvons l’utiliser pour nous poser une question éthique simple lorsque nous exploitons des data. À quel type de data avons-nous affaire : Zombie Data or Conscious Data ? Dans le premier cas, nous récoltons des data qui semblent se comporter intelligemment mais dont in fine le contenu est vide et sans intérêt. Expérience commune : quelle masse de data pour parfois si peu d’enseignements utiles, voire des usages absurdes ! Ajoutons que ces data nous transforment nous aussi en zombies… Car nous voilà réduits à des agrégats de comportements extérieurs (achats effectués, mots-clés tapés sur des moteurs de recherche, conversations sur les réseaux sociaux etc.) censés résumer nos désirs intérieurs – lesquels sont tout de même un peu plus subtils. Zombie Data make Zombie People!
En ce qui concerne les Conscious Data, il est aujourd’hui certain que le Big Data n’a pas la conscience des systèmes que Chalmers juge tout à fait plausible à terme. Reste alors aux consciences extérieures humaines à donner du sens aux data, à les humaniser. Un peu comme l’androïde Data a besoin d’un ami humain pour évoluer : c’est le rôle du Captain Picard dans Star Trek. Conscious People make Conscious Data!
____________
1David J. Chalmers, “Reality +. Virtual worlds and the problems of philosophy”, Penguin Books/Allen Lane, 2022. Non encore traduit en français.
Isabelle Comyn-Wattiau Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’information
Evaluer notre patrimoine de données, un défi auquel aucune entreprise ne peut échapper
Evoquer la valeur de la donnée en 2022, à l’heure où les media regorgent d’exemples d’entreprises qui subissent des préjudices liés aux données, voilà qui est contre-intuitif. Pourtant, cette valeur est bien connue et c’est même la raison pour laquelle les attaques visant les données ne sont pas uniquement des malveillances. Elles visent de plus en plus souvent à prendre possession du patrimoine informationnel de ces organisations.
La sécurité de la donnée peut être déclinée selon le triptyque : disponibilité, confidentialité, intégrité. Mettre à mal un système d’information en compromet la disponibilité et donc met en danger le processus que ce système sous-tend. C’est encore ce qu’on a pu constater à l’hôpital de Corbeil-Essonnes ces derniers mois. Faute de disposer des données liées au patient, le processus de diagnostic et de soins est rendu plus long et plus coûteux. Il peut même impacter la santé du patient en retardant la mise en oeuvre d’un traitement. Mais, lors de ces attaques, on craint aussi la rupture de la confidentialité de données hautement sensibles.
Enfin, si, d’aventure, les pirates informatiques en venaient à modifier ces mêmes données, ils pourraient en compromettre l’intégrité. Ainsi, ce sont les trois pans de la sécurité de la donnée qui sont impactés avec des dommages très nombreux : d’abord la santé du patient, mais aussi la réputation de l’hôpital et enfin les coûts liés à la remise en état du système d’information et de tous les processus impactés. Se limiter à la sécurité de la donnée est une approche défensive réductrice même si on ne peut l’écarter. Evaluer la valeur de la donnée est un enjeu de taille pour la plupart des entreprises. La presse publie quotidiennement des réussites de start-ups où une bonne idée de partage, de mise en commun d’une information très opérationnelle conduit à une valeur nouvelle insoupçonnée. Ainsi, en 2021, la capitalisation boursière de Facebook atteignait environ 1 000 milliards de dollars, mais la valeur nette de l’entreprise fondée sur l’actif et le passif n’était que de 138 milliards de dollars3. La différence en termes de valeur s’explique par les données que Facebook collecte auprès des utilisateurs et qu’elle utilise à son tour pour alimenter ses algorithmes publicitaires. Pour les économistes, les données constituent un actif non rival (au sens où elles peuvent être consommées par plusieurs sans diminuer), qui ne se déprécie pas nécessairement quand on l’utilise et peut, au contraire, être génératrice de nouvelles informations, par exemple combinée à d’autres. Pour certaines d’entre elles, la valeur se déprécie très rapidement. Toutes ces caractéristiques en font un actif très spécifique qui ne ressemble pas totalement à aucun autre actif intangible, marque, logiciel, brevet, etc. Aborder la valeur de la donnée nécessite aussi de s’entendre sur le vocabulaire : donnée vs. Information. Sans rouvrir le débat sur la différence entre donnée et information, on peut dans une première approche du sujet les considérer comme identiques. Certains vont cependant distinguer la donnée, entrée du système, non modifiable, résultat de la mesure d’un phénomène de l’information, sortie du système après nettoyage, traitement, affinage, transformation, etc.
La valeur de l’information a été étudiée en cohérence avec lespratiques comptables notamment par Moody et Walsh2. Ils se sont efforcés de démontrer d’abord que l’information peut être considérée comme un actif : elle offre un service et un avantage économique, elle est contrôlée par l’organisation et elle est le résultat de transactions passées. Ils proposent ensuite trois approches d’évaluation de la valeur de l’information. La première est fondée sur les coûts, d’acquisition, de traitement, de conservation, etc. C’est la plus facile à mettre en oeuvre puisque ces éléments sont peu ou prou présents dans les tableaux de bord du contrôleur de gestion. Cependant, ils ne reflètent pas toutes les dimensions de la donnée, par exemple l’évolution de sa valeur dans le temps. La seconde est fondée sur le marché et consiste à évaluer la valeur que l’on pourrait obtenir en vendant cette donnée.
On parle de valeur d’échange. Cette approche requiert un effort conséquent. De plus, il n’est pas toujours possible d’obtenir une mesure fiable de la valeur de cette donnée. Enfin, la troisième est fondée sur l’utilité. Il s’agit d’évaluer la valeur d’usage de la donnée en estimant la valeur économique qu’elle permettra d’obtenir en tant que produit ou en tant que catalyseur. Mais cette valeur est difficile à anticiper et la part de son effet catalytique est aussi très complexe à estimer.
Il apparait ainsi que les nombreuses approches d’évaluation de la valeur de la donnée sont partielles mais complémentaires. Les unes sont fondées sur la valeur d’usage ou la valeur d’échange de la donnée. D’autres font l’hypothèse d’un compor tement rationnel des entreprises et évaluent la donnée au niveau de l’investissement consenti pour l’acquérir et la gérer tout au long de son cycle de vie. Enfin, les approches fondées sur les risques voient la donnée comme l’objet de menaces pour l’entreprise ou l’organisation. Il peut s’agir de risque opérationnel : ainsi, la donnée manquante ou endommagée met en cause le fonctionnement de certains processus. Mais il y a aussi les risques légaux ou réglementaires puisque de plus en plus de textes régissent les obligations à respecter en matière de données. Le Règlement Général sur la Protection des Données n’en est qu’un exemple, le plus démocratisé sans doute. Les risques peuvent aussi être d’ordre stratégique quand ils concernent la réputation de l’entreprise ou conduisent celle-ci à prendre de mauvaises décisions. Enfin, certains auteurs ont adopté une approche par les externalités pour les données ouvertes qui sont a priori disponibles pour tous mais qui, par leur bonne valorisation, peuvent apporter un bénéfice pour la société dans son ensemble.
Le concept de la valeur de la donnée est à relier à l’objectif de sa bonne gouvernance : maximiser la valeur de la donnée en minimisant les risques et les coûts qui lui sont associés1. En adoptant ce triptyque, valeur, risque et coût, on peut mieux appréhender une vision holistique de la valeur de la donnée et améliorer son évaluation. Ces trois dimensionsvaleur, risque et coût sont complémentaires mais ne nous permettent pas d’exclure le contexte. Ainsi, la même information n’a pas la même valeur selon le contexte temporel, géographique, économique, politique dans lequel le processus d’évaluation s’inscrit. Il faut répondre à la question du pourquoi de l’évaluation pour pouvoir caractériser les éléments per tinents du contexte : politique, économique, social , technologi que, écologique et légal (PESTEL) notamment. L’objet lui-même de l’évaluation doit être précisé. Une des difficultés dans l’estimation de la valeur de la donnée est de choisir la granularité adéquate : s’agit-il de l’ensemble d’un système d’information (le système d’information client) ou d’un jeu de données (la base de données des clients) ou encore d’une information clé (le prix de lancement du produit concurrent) ? Il est clair que la valeur d’un système d’information n’est pas la simple agrégation de la valeur de ses composants.
Il existe peu d’approches d’évaluation de la valeur de la donnée qui soient suffisamment holistiques et générales, permettant une application à tout type de donnée dans n’importe quel contexte. Des recommandations existent comme, par exemple, celle de choisir entre une approche descendante et une approche ascendante. Au contraire, l’approche holistique ne peut l’être qu’en combinant ces deux parcours de la valeur.
C’est parce que l’entreprise est encore incapable de mesurer la valeur réelle et potentielle des données qu’elle n’investit pas suffisamment dans la gouvernance des données et le partage des informations.
C’est un cercle vicieux puisque cela la rend finalement incapable de réaliser la pleine valeur. Le cercle vertueux peut se bâtir en commençant par les données les plus critiques, par exemple (mais pas nécessairement) la donnée client, et en embarquant progressivement tous les acteurs de la donnée, producteurs, « transformeurs », vendeurs, distributeurs, consommateurs de cette donnée. Ils ont les différents points de vue nécessaires à l’approche holistique.
____________
1J. Akoka, I. Comyn-Wattiau, « Evaluation de la valeur des données – Modèle et méthode », Actes du 40ème congrès INFORSID (INFormatique des ORganisations et Systèmes d’Information et de Décision), Dijon, 2022. 2D. Moody, P. Walsh, « Measuring the Value of Information – an Asset Valuation Approach », Actes de la conférence européenne sur les systèmes d’information (ECIS), 1999. 3A. Neely, « Why You Should Be Treating Your Data As An Asset », Anmut, https://www.anmut.co.uk/why-you-should-betreating-your-data-as-an-asset/
La double transition énergétique et digitale : Volontarisme pour l’investissement et clairvoyance pour le pilotage macroéconomique
L’économie mondiale est confrontée à de nombreux enjeux. Dans une perspective cour te, un tempo inusité des prix et une dégradation des perspectives de croissance, le tout dans un contexte politique compliqué sur le front intérieur dans de nombreux pays et inquiétant en matière de relations internationales (les comportements de la Russie en Ukraine, de la Chine autour de Taïwan et de l’Iran avec ses voisins arabes) ; dans une perspective longue, le vieillissement démographique concerne beaucoup de régions autour du globe, la « régulation » économique paraît s’éloigner du corpus néolibéral pour revenir vers une approche davantage keynésienne et une double transition, énergétique et digitale, est engagée.
Arrêtons-nous sur ce dernier point. La transition énergétique s’impose. Il y va de la préservation de la planète et de toutes les espèces qui y vivent. Il va falloir « décarboner » l’industrie et les transports, réussir la rénovation thermique des bâtiments et développer à grande échelle les énergies renouvelables. La transition digitale est aussi un impératif. Il s’agit d’un processus continu permettant aux entreprises, aux administrations et aux ménages d’intégrer les nouvelles technologies (par exemple le cloud, l’internet des objets ou l’intelligence artificielle) à beaucoup des aspects de leurs activités. En sachant que les transformations nécessaires ne répondent pas qu’à des problématiques technologiques. Il y a un aspect humain très important, avec des adaptations culturelles et comportementales à mener.
Les montant des investissements en jeu est impressionnant. En s’arrêtant à la seule Zone Euro, retenir une enveloppe annuelle de 500 milliards d’euros par an et ceci pendant de nombreuses années (sans doute plus de 10 ans) ne paraît pas déraisonnable. C’est du moins l’ordre de grandeur auquel on arrive en faisant la synthèse de quelques travaux « dignes de foi ». Cela représente plus de 4 points de PIB !
Les sommes engagées sont d’une telle taille qu’il ne semble pas inutile de s’interroger sur leurs implications macroéconomiques. Proposons un chiffrage prospectif simple à l’horizon 2032. Le point de départ est ce volontarisme en matière d’investissement, lié à la double transition : les « fameux » 500 milliards d’euros par an, qui, en passant d’une référence en monnaie courante à une autre en monnaie constante (celle retenue dans la mesure de la croissance économique – celle du PIB -), deviennent 440 milliards. Les autres éléments de la demande, y compris les dépenses d’investissements hors cette double transition, restent sur la tendance observée au cours des années passées. A un détail près toutefois ; le surcroît d’investissement se traduit par plus d’importations et donc par une réduction de l’excédent extérieur. Nous faisons aussi l’hypothèse qu’aucun choc de prix ou de politique économique n’intervient sur la période.
LE TABLEAU CI-DESSUS REPREND LES PRINCIPALES IMPLICATIONS À PRENDRE EN COMPTE. TROIS D’ENTRE ELLES SONT PARTICULIÈREMENT NOTABLES :
• La croissance du PIB atteindrait 1,5% l’an. Si le chiffrage n’apparaît pas a priori exagéré, il faut admettre que le potentiel de croissance est plutôt estimé à 1% l’an. Bien sûr, on peut considérer que l’effort supplémentaire d’investissement contribuera à plus de croissance. Mais à rebours on pourrait défendre l’idée que pour partie au moins cette accumulation nouvelle de capital se substituera à une destruction d’immobilisations devenues obsolètes.
Sans oublier les évolutions démographiques qui envoient un message plutôt défavorable pour ce qui est de la population active (effet à peut-être compenser par un retour à une situation proche du plein emploi).
Bref, une suspicion demeure :
le chiffrage induit par les hypothèses retenues n’est-il pas trop optimiste ?
• La part de la consommation des ménages dans le PIB reculerait de 2,5 points sur la période, pour atteindre 49,5%. Le niveau actuel n’est déjà pas très élevé : 52% contre une moyenne de 55% entre 1995 et 2010 (et un point haut à 59% en 1980), période qui a donc été suivie par une décrue progressive.
Avec le changement de « régulation » macroéconomique qu’on voit poindre et qui met l’accent sur une croissance plus inclusive, est-ce bien crédible ?
• Si le ratio investissement/PIB doit progresser de près de 4,5 points d’ici à 2032, alors l’épargne devra suivre ; les équilibres macroéconomiques sont ainsi faits ! D’où cela pourra-t-il venir ? En partie d’une moindre épargne européenne se dirigeant vers le reste du monde.
N’avons-nous pas retenu l’hypothèse d’une réduction de l’excédent extérieur ? Pour le reste, il faudra choisir entre un plus grand effort d’épargne des ménages, une augmentation des profits des entreprises et /ou une baisse du déficit des comptes publics.
AUCUNE DES OPTIONS NE VA DE SOI.
La première renvoie à la question de la réduction de la consommation des ménages dans le PIB ; on vient de le voir.
La seconde suggère une nouvelle déformation de la richesse créée en faveur des entreprises. N’est-ce pas contradictoire avec l’air du temps (nouvelle « régulation », dont le développement des critères ESG – Environnement, Social et Gouvernance -) ?
La troisième semble raisonnable, bien sûr ; mais comment choisir entre repli des dépenses courantes et hausse des prélèvements (l’investissement public serait très certainement « sanctuarisé ») ? Si ce scénario n’est pas celui de l’inacceptable, mais apparaît tout de même un peu « mal foutu », alors, il faut essayer de concevoir ce qui serait raisonnable d’anticiper sous les deux contraintes de réussir la double transition et de ne pas s’illusionner de trop sur les performances à venir en termes de croissance économique.
En fait, l’ajustement ne peut porter que, soit sur l’épargne placée dans le reste du monde (la contrepar tie de l’équilibre du compte des biens et services avec l’extérieur), avec la possibilité que les flux s’inversent et que la Zone Euro doive « importer » de l’épargne étrangère, soit sur un ralentissement des dépenses de consommation (qu’il s’agisse des ménages et/ou des administrations).
La première solution fragiliserait l’Europe sur la scène internationale.
Macroéconomiquement, elle apparaîtra moins solide, ce qui renforcera l’impression déjà tirée de la microéconomie (moindre rentabilité des entreprises du « vieux continent » par rapport à celles du « nouveau monde » et moindre présence dans les secteurs d’avenir) et de la politique (les problématiques non résolues de l’intégration et du rôle géopolitique).
Comment ne pas considérer alors que les équilibres financiers apparaitront plus incertains, qu’il s’agisse du niveau des taux d’intérêt ou du taux de change ?
La seconde idée, qui évidemment rime avec frugalité, semble difficile à mettre en place, dans un environnement à la fois plus keynésien et marqué du sceau de l’ambition d’un partage de la richesse plus en faveur des ménages. A moins que les pouvoirs publics trouvent la martingale pour inciter ceux-ci à épargner davantage.
On le comprend ; l’ambition de pousser les feux de l’investissement, pour des tas de bonnes raisons, a des effets macroéconomiques déstabilisants. Il faut anticiper et s’y préparer ; mieux vaut prévenir que guérir…
The recent legislative elections in France highlighted once again the discontent of the electorate in numerous countries with the development of their environment. Almost 60% of French voters listed on the electoral register made their choice… not to choose (non-voters, blank votes and spoilt votes) and almost 40% of those who did cast a ballot did so in favour of political organisations (parties or alliances) that are traditionally anti-establishment (the Rassemblement National and the Nouvelle Union Populaire, Ecologique et Sociale).
If we take a short-term focus, finding the reasons for this mix of pessimism and ill-humour—confirmed as it happens by a stark contraction of household confidence—proves to be quite simple. The net acceleration of consumer prices and the war at the European Union’s border, both phenomena being inherently linked, are obvious reasons. These upheavals, the gravity of which should not be underestimated (as we shall see), combine and indeed amplify a general disquiet that has been solidly in place for some time.
Without needlessly going too far back, we cannot fail to recognise that over the past 15 years the world has experienced an entire series of events that have contributed if not to a loss of our bearings, then to the questioning of the way we perceive the environment in which we are evolving.
Let us list some of these events, without looking to be exhaustive:
• the financial crisis (2008)
• the swing between the USA tending to retreat from global affairs and China, up to now, being more and more present (the new silk roads in 2015), with Europe in the middle trying to find itself (Brexit in 2016)
• the change in direction of US policy towards China (distrust and distance from 2017)
• Russia’s challenging of its neighbours’ borders (2008, 2014 and of course very recently in February this year)
• societies becoming more fragile (the Arab Spring in 2010–2011, the French Yellow Jackets in 2018, the assault on Congress in the USA in 2021, the Black Lives Matter movement in 2013, the refugee crisis in 2015, the Paris attacks in 2015)
• the rise of the environmental question (from the Fukushima accident in Japan in 2011 to a more complete realisation of climate change from 2018, with Greta Thunberg, among others)
• an economy that does not work for the benefit of all (the Panama Papers in 2016 on tax avoidance processes), against a contrasting backdrop of only passable, if not mediocre, performance at the macroeconomic scale but more dazzling performance at the microeconomic level (cf. GDP, and therefore revenues, vs the profits of listed companies)
• a pandemic crisis (COVID-19) highlighting the fragility of production chains that are too long and too complex (‘just in case’ taking over from ‘just in time’ but with what economic consequences?), not to mention the crisis linked to humanity’s abuse of Mother Nature
• the political and social question (the need to protect and share wealth)
It is on these already weakened foundations that the most recent events (inflation and the war, to put it simply) are being felt as potential vectors of rupture, similarly to potential catalysts of change that were until now latent. This rupture could take two forms.
First, and based on a deductive approach, there is the risk that geopolitical tectonic plates, to quote Pierre-Olivier Gourinchas, the new chief economist of the IMF, take shape, ‘fragmenting the global economy into distinct economic blocs with different ideologies, political systems, technology standards, cross border payment and trade systems, and reserve currencies’. The political landscape of the world would be drastically transformed, with the economic destabilisation that would result from it, at least in the beginning.
Then, and based on an empirical approach drawn from Applied History (the use of history to help benefit people in current and future times), there is the tempting parallel between the current situation and the situation that prevailed in the second half of the 1970s. At the time, the ingredients were episodes of war or regime change in the Middle East and a striking rise in oil prices. The consequence was twofold: the onset of spiralling inflation and a change of regulation, at the same time less interventionist and Keynesian and more liberal and ‘Friedmanian’: less systematic drive for budgetary activism, less regulation of the labour market, privatisation of public companies and more openness to external exchanges.
Let us delve into this second topic – or at least try. In the same way that correlation does not mean causation, parallel might mean trivial! By what path would comparable causes produce a change in the conduct of the economy, but in the opposite direction?
Is it not time to foresee a return to more voluntarist economic policies instead of prioritising laissez-faire economics? Yes, of course, but we must understand that this aspiration derives more from a reaction to a general context considered dysfunctional rather than from the search for an appropriate response to the beginning of snowballing prices.
Public opinion (or those who influence it) seems to show dissatisfaction, with the source of the problem behind it lying in the regulation in place today. This leads to an emphasis on an attitude that favours the alternative to the current logic: goodbye Friedman and hello Keynes, nice to see you again!
Nevertheless, beyond the causalities and their occasional loose ends to be tied up, the aspiration for a change in the administrat ion of the economy remains. The keywords might be the following: energy transition and inclusion. That means cooperation between countries (yes to competition in an open world, but not to strategic rivalry); reconciliation between public decision-makers, but also private ones, and the various other actors of economic and social life (the stakeholding); and the return to a ‘normal’ redistribution of wealth from the most to the least privileged.
To paraphrase Harvard University Professor Dani Rodrik, a globalised economic system cannot be the end and the political and social balances of each country the means; the logic must be put in the right order (a return in a way to the spirit of Bretton Woods).
In this way, at least we can hope, the global economic system will not fragment and inflation will be contained.
At least in the West, citizens and political leaders should align their aspirations and their efforts in this quest. Will businesses follow them? Will they not have something to lose, at least the largest of them?
We must of course raise the difficulty that may exist in reconciling the economic globalisation experienced over the past 30 years or so and the values that now prevail in society.
This requires adaptation, but without opposing the behaviour of the past and the aspirations—most certainly lasting—that have emerged. In the future (far ahead!), there will be no economic success in a world made inhospitable by the climate or by politics.
It is possible to ‘make some money’ occasionally by optimising customer, supplier and employee relationships, but taking a more long-term view, a ‘functional’ planet and ‘calm’ societ y are prerequisites.
Maybe we too easily tend to oppose market logic head-on to state and societal logic. Doubtless, it is more a question of positioning the cursor in the right place based on the changes observed or foreseen. That is where we are today; it is more about evolution than revolution!
Philippe Raimbourg Director of the Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Affiliate professor at ESCP Business School
The dynamics of corporate credit spreads
The analysis of credit spread dynamics largely relates to the analysis of financial ratings and their impact on the quoted prices of debt securities.
This issue has been documented regularly for over 50 years and has led to numerous statistical studies. For the most part, these studies are consistent and highlight the different reactions of investors to cases of downgrading and upgrading. Observing the quoted prices of debt securities highlights the financial market’s expectation for downgrading, with quoted prices trending significantly downwards several trading days before the downgrade itself. On the agency’s announcement date, the market’s reactions are small in scale. By contrast, upgrades are hardly ever anticipated, with debt security holders particularly vigilant so as not to incur capital losses as a result of a downgrade. It is worth noting that because of the limited maturity of the debt securities, buying orders are structurally higher than selling orders; as a result, the latter are more easily seen as signals of mistrust by the market.
More recent studies have focused on the impact of rating changes on the volatility and liquidity of securities. Downgrades are preceded by an increase in volatility and a wider bid-ask spread, demonstrating a fall in liquidity; uncertainty as to the credit risk of the security in question leads to different reactions from investors and disparate valuations. Publishing the rating effectively homogenises investor perceptions, reduces volatility and increases liquidity. The effects are not so clear-cut when upgrading because, with the change to the rating being unanticipated, the effect of perception homogenisation is weaker and counterbalanced by the desire of some investors to profit from the improved credit quality to make speculative gains.
These studies shed new light on the question of the utility of rating agencies. The agencies effectively send information to investors, but perhaps not to all of them. Indeed, informed investors may outpace the agencies in the monitoring of the issuers’ credit quality. However, less informed investors need the opinion of the agency to be certain that the observed decrease in prices effectively corresponds to a downgrade in credit quality. The agency’s announcement removes all disparity of perception between investors and highlights the utility of the agency, which stabilises prices and increases liquidity. The dynamics of credit spreads cannot be studied separately from those of other marketable securities. After all, the debt world is not cut off from the equity world, something that we can easily understand through intuition alone. A fall in share prices is generally the result of operational difficulties leading to a reduction in operating cash flows and lower coverage of remuneration expenses and debt repayments. In parallel, this lower share value means an increase in financial leverage and, at a given volatility of the rate of return on assets, an increase in the volatility of the rate of return on equity. A reduction in the share price, an increase in financial leverage and a rise in the share price volatility and credit risk therefore all combine. From a theoretical point of view, Robert Merton was the first to express the credit spread as a function of the share price. We will not cover his work here. We will instead look into the credit-equity relationship as it is frequently used in the finance industry. Indeed, typically a power function denominated on growth rates is used for this purpose.
CDSt / CDSREF = [ SREF / St ] α
The credit spread growth rate, measured by the CDS, is therefore a function of the rate of decline of the share price modulo a power α that we assume to be positive, where REF serves as a basis for calculating the rate of change of the CDS and the share.
Knowledge of the parameter α makes it possible to specify this relationship fully. We first note that, as defined by the preceding equation, α is the opposite of the elasticity of the CDS value compared with the share value. By taking the logarithm of this equation, we get:
Ln [CDSt / CDSREF] = – α Ln [ St / SREF ]
α = – Ln
[CDSt / CDSREF] / Ln [ St
/ SREF ]
A ratio of two relative growth rates, the α parameter is indeed, to the nearest sign, the elasticity of the CDS value compared with the share value that we can also write as:
α = – [S/CDS] [δCDS / δS]
By expressing the derivative of the CDS value in relation to the share value [δCDS / δS], we are led to the following value of the α parameter:
α = 1 + l avec l = D/(S+D)
The debt and equity worlds are therefore closely related: an inverse relationship links credit spreads and share prices; this relationship is heavily dependent on the financial structure of the company and its leverage calculated in relation to the balance sheet total (S+D). The higher this leverage, the more any potential underperformance in share price will lead to significant increases in the credit spread.
From an empirical perspective, though this correlation appears relatively low when the markets are calm, it is very high when the markets are volatile. When the leverage is low, the graph representing the development of credit spreads (in ordinates) in relation to share prices highlights a relatively linear relationship close to horizontal; however, when leverage is much higher, a highly convex line appears.
With this relationship established, we can now question the sense behind it, or, if we prefer, ask what the lead market is. To do so, it is necessary to undertake credit market and equity market co-integration tests, and that the arbitrageurs will be responsible for making the long-term equilibrium in these two markets consistent.
To this end, two series of econometric tests are conducted symmetrically. The first series aims to explain the changes in share prices by those in CDS, whether delayed or not by several periods, and vice versa as regards changes in the value of CDS, in the latter case incorporating changes in financial leverage. These relationships, tested over the period 2008–2020 for 220 listed securities on the S&P 500 index, bring to light the following results:
– There are information channels between the listed equity segment and the CDS market. These information channels concern all businesses, no matter their sector or their level of debt: ‘informed’ traders, because of the existence of financial leverage, make decisions just as much on the equity market as on the credit market.
– In the majority of cases (two thirds of companies reviewed), the lead market is the equity market whose developments determine around 70% of the developments in the CDS market.
– However, in the case of companies with significant leverage, the price discovery process starts with the CDS market, which explains more than 50% of price variations. This empirical work is evidence, if any were needed, of the importance of the structural credit risk model proposed by the Nobel laureate Robert Merton in 1974.
References
Lovo, S., Raimbourg Ph., Salvadè F. (2022), ‘Credit Rating Agencies, Information Asymmetry, and US Bond Liquidity’, Journal of Business, Finance and Accounting, https://doi. org/10.1111/jbfa.12610
Zimmermann, P. (2015), ‘Revisiting the Credit-Equity Power Relationship’, The Journal of Fixed Income, 24, 3, 77-87.
Zimmermann, P. (2021), ‘The Role of the Leverage Effect in the Price Discovery Process of Credit Markets’, Journal of Economic Dynamics and Control, 122, 104033.
To stop seeing everything through the prism of complexity: that is without doubt the most difficult thing that we must learn to do again. It is the most difficult because the paradigm of ‘complex thought’ (Edgar Morin1) has taken over. Our everyday semantics is evidence enough of this: all is ‘systemic’, ‘hybrid’, holistic’ or ‘fluid’. No matter where we look, the ‘VUCA’ world (for volatile, uncertain, complex and ambiguous2) stretches as far as the eye can see.
Yet, applied to every situation, this complexity dogma actually makes us lose understanding, potential for action and responsibility. First, we lose understanding because it forces on us a baroque representation of the world where everything is entangled, where the part is in the whole but the whole is also in the part3, and where the causes of an event are indeterminable and subject to the retroactive effects of their own consequences4. Referring the search for truth to a reductive and mutilating approach to reality, it also encourages the equivalence of opinions and accentuates the shortcomings of the post-truth era5.
Second, we lose potential for action because from the moment everything becomes complex, how can we not be consumed with panic and paralysis? Where should we start if, as soon as we touch just one thread of the fabric of reality, the whole spool risks becoming even more entangled? Our inaction in the face of climate change derives in part from this representation of the problem as something of endless complexity and from the idea that the slightest attempt to do something about it would raise other issues that are even worse. The fable of the butterfly’s wings in Brazil that generates a hurricane at the other end of the world leads to our inertia and impuissance. Yet ‘the secret to action is to get started’6, as the philosopher Alain put it.
‘It’s complicated’ therefore becomes an excuse not to act. Whilst the state of the world requires us to commit to action now more than ever, today we are seeing a great disengagement, visible in both the civic and corporate worlds. Referring to effects of the system, the complexity dogma takes away individual responsibility. Learning to think, act and live with simplicity appears more urgent than ever. But the path is not easy. As the minimalist architect John Pawson put it: ‘Simplicity is actually very difficult to achieve. It depends on care, thought, knowledge and patience.’7 Let us add ‘courage’ to this list of ingredients, the courage to question a triumphant representation of reality that may well be one of our great contemporary ideologies.
____________
1Published in 1990, the book Introduction à la pensée complexe [Introduction to complex thought] by Edgar Morin presents the main principles of complex thought.
2The acronym VUCA was created by the US army in the 1990s.
3Edgar Morin call this idea the ‘holographic principle’.
4This is what Morin calls the ‘recursive principle’.
5This is a possible interpretation of another principle of complex thought, the ‘dialogical principle’.
6Alain, translated from the French ‘Le secret de l’action, c’est de s’y mettre.’
7The book Minimum by John Pawson was first published in 2006.
Is real estate at the peak of its cycle? The Paris example.
What should we think of the stability in Parisian residential property prices, despite the public health crisis?
Since March 2020, the Covid-19 pandemic has shaken up the global economy, bringing about changes in numerous sectors, including residential property, in particular.
This public health crisis is behind a change in economic paradigms that have been in place since the 2010s. The eurozone is currently facing a significant increase in inflation, which reached 5.2% in May 2022, a level unseen since 1985. Access to mortgages for individuals is gradually becoming more difficult.
However, despite this context and in contrast to previous crises, the price per square metre of existing housing in Paris has not experienced any significant decrease; in fact, it has remained relatively stable.
In this situation, two opposing theories have come to light: one the one hand, some consider that the consistent rise of existing housing prices in Paris is justified by its unique nature, the City of Lights, which shelters it from economic cycles; on the other hand, some worry about a property bubble in the capital that is on the verge of bursting.
WHAT DO THE FIGURES SAY?
According to the Parisian notary database, the price per square metre of existing housing rose from €3,463 to €10,760 between 1991 and April 2022, an increase of around 3.6% per annum on average. Inflation over the same period stood at around 1.8% per annum on average, according to Insee. In short, the value of a square metre in Paris grew on average twice as quickly as inflation. In the graph below, we can observe the curve representing the actual increase in property prices per square metre in Paris versus a curve representing the 1991 price per square metre subsequently inflated each year using the Insee inflation rate.
This graph highlights two observable phases:
• In the period from 1991 to 2004, the actual price per square metre remained below the 1991 Insee-inflated price. Property prices grew significantly in the period prior to 1991 then underwent a major correction of around 35% between 1991 and 1997. Only in 2004 did the actual Parisian property price curve exceed the Insee-inflated curve.
As a reminder, 1991 marked a high point in the cycle, completing an upward phase of speculation by property dealers in Paris, and the beginning of what certain experts would call ‘the property crisis of the century’.
• In the period from 2004 to 2022, the actual price per square metre grew massively, much more quickly than economic inflation: +5.0% per annum on average for the actual price versus only +1.8% for inflation. There is therefore major disparity between the development of residential property prices in Paris and the average increase in standard of living.
Moreover, it is worth noting that between 2020 and 2022, the price per square metre in Paris did not experience any major fluctuation, in contrast to previous crises (1991 or 2008).
The first quarter of 2022, however, sees the return of significant inflation, with no repercussions on the actual property prices at this stage.
Is this due to increasing demand?
Many defend the following theory: demand for Paris is growing, whilst supply is limited, which has resulted in the constant rise in prices per square metre, no matter what stage of the economic cycle is prevailing.
The demographic reality is not quite so categorical. In 1990, Paris had a population of 2.15 million; this grew to 2.19 million in 2020, with a peak of 2.24 million in 2010. Further, since 2021, the city’s population has been falling to reach 2.14 million in 2022. Indeed, some Parisians, finding the health restrictions rather trying, decided to leave inner Paris for the inner and outer suburbs or other regions of France altogether.
The trend to leave inner Paris can also be seen among the households that returned from London following Brexit.
This declining trend comes hand in hand with an increase in demographic pressure in the rest of the Ile-de-France region (excluding Paris). The departments in the inner and outer suburbs have seen their population grow from 8.5 million to 10.3 million people between 1990 and 2022.
Therefore, since 1990, Paris has experienced a relatively stable demographic dynamic, even starting to decline from 2021. We can conclude then that demand does not seem to be behind the significant rise in the actual prices of residential property in Paris.
Is this due to decreasing supply?
In Paris, transaction volumes are higher during periods of increased prices (between 35,000 and 40,000 transactions per annum), whilst these volumes fall significantly during periods of decreased prices (25,000 to 30,000 transactions).
It seems high time to put an end to a common misconception: a fall in the volume of properties for sale does not automatically increase prices.
The economic reality is different: when prices are high, property owners are more inclined to sell their property, either to crystallise a capital gain or to undertake a buy–sell transaction (incidentally, often in the reverse order) because they have confidence in the market. Conversely, when prices are shrinking, the market seizes up. Property owners delay as much as possible their potential sales waiting for better days.
This leads to the following conclusion: the classic economic mechanisms of supply and demand simply cannot explain the historical growth in residential property prices per square metre in Paris.
These price dynamics should really be considered as ‘contra-economic’: supply grows in volume when prices increase; supply falls in volume when prices decrease.
When concentrating our analysis on the recent public health crisis, we can observe that transaction volumes decreased in the Parisian market. Indeed, the residential property market in Paris experienced a dip from the first lockdown, falling from 35,100 transactions per annum to 31,200 in 2020 to return to 34,900 in 2021. This change can be explained in particular by the specific structure of the lockdown, with investors unable to complete the purchasing process for residential property (visits, meeting with the notary, move, etc.).
When the strict public health measures were lifted, the property market was able to recover quickly.
WHAT ARE THE CONSEQUENCES OF THE COVID-19 CRISIS ON THE RESIDENTIAL PROPERTY MARKET IN PARIS?
For some investors, the change to our way of life due to the public health measures – remote working and leaving Paris – was to lead to a fall in Parisian property prices, or even to a bursting of the property bubble comparable to that of 1991.
Marked by the successive lockdowns and discouraged by the more difficult conditions to obtain a mortgage, people could have started a mass exodus from Paris, resulting in a fall in residential property prices in the city.
We can see in the graph below that the public health crisis appears to have had little impact on the price per square metre in Paris. Prices have flattened, or slightly decreased, but have not fallen below the bar of €10,000 per square metre on average.
WHAT ARE THE REAL DRIVERS EXPLAINING THE INCREASE IN RESIDENTIAL PROPERTY PRICES PER SQUARE METRE IN PARIS?
As we cannot use demography and standard economics to explain the long-term increase in prices observed, what are the variables that really can explain this sharp increase?
To answer this question, we have built a multi-variable regression model using a long historical series (1990–2022), which comes to the following conclusion:
Since 1990, the development of residential property prices per square metre in Paris can be explained ‘entirely’ and ‘mathematically’ by two financial variables.
To put it simply, this means that it is possible to explain—and potentially predict—the price per square metre of residential property in Paris with an extremely high degree of accuracy using only two financial variables.
– For those familiar with such techniques, our multi-variable regression model reached a correlation index (R2 ) level of 94%1.
The first variable involved is the following:
– Variable 1: the spread between the French 10-year OAT rate and Insee’s inflation rate.
As shown in the graph below, taken in isolation, this variable
In simple terms, this variable represents a borrower’s interest rate adjusted for economic inflation, that is, the net real interest rate for the borrower.
This variable thus makes it possible to take into account the attractiveness of the resources available to the borrower to acquire a residential property.
The spread highlights the impact of French 10-year OAT rates in the development of property prices per square metre. Indeed, when the French 10-year OAT rates fall, the borrowing capacity of an individual borrower rises significantly. For example, if an individual borrower’s rate decreases by one point (100 basis points), his or her borrowing capacity increases by approximately 10%. But the Parisian property market incorporates this component in the development of prices per square metre. The fall in rates enables a rise in borrowing capacity for buyers but not in terms of the number of square metres that they can buy. The market absorbs any increase in borrowing capacity in the price per square metre.
Furthermore, this variable takes into account the effect of inflation on the property market. The year 2017 marks the beginning of a scissor effect between the French 10-year OAT rate and inflation. Interest rates remained stable whilst inflation picked up significantly. For the first time, the spread (10-year OAT – inflation) became negative, meaning that for the first time, individual borrowers could borrow at negative net real rates.
The scissor effect has intensified since 2018, bringing about the continued rise in residential property prices per square metre in Paris between 2018 and 2020.
But since 2021, the striking rise in inflation coupled with the stable low base rates have been behind a financially untenable spread. This spread has developed from (0.6)% in 2020 to (3.6)% in 2022. Over the same period, prices per square metre have started to decline just as the rise in the cost of living has accelerated.
The current intention of the European Central Bank (ECB) to increase base rates in order to curb inflation should gradually attenuate this historic scissor effect. But prices per square metre of residential property in Paris appear to have begun a noteworthy decline.
The fall in spread is not the only or even the best driver explaining the historical increase in prices per square metre in Paris.
The second historical variable is the following:
– Variable 2: the size of the ECB’s balance sheet.
– Taken in isolation, this variable explains the price per square metre with an R2 of approximately 94%. It itself is highly correlated with the first variable, owing to the coordination of decisions on the development of the ECB’s monetary policy for these two variables.
This variable highlights the consequences of the quantitative easing policy implemented by the ECB on the valuation of financial asset classes, including Parisian property.
To enable the members of the Eurogroup to face various economic crises (including the public health crisis), the ECB put in place in 2009 an ambitious quantitative easing policy, similarly to the Fed, with the aim of ensuring the stability of the euro by injecting a vast quantity of currency into the market.
The supply of this monetary mass to banks and the maintenance of low base rates are behind the historical rise of residential property prices in Paris.
Based on our analyses, it is possible to correlate the historical development of prices per square metre in Paris with the size of the ECB’s balance sheet at 94%.
The graph below presents the development of the ECB’s balance sheet, showing its consistent growth since 2009. This strong growth is the fruit of the implementation of unconventional monetary policies to respond to the crises felt by the Euro-system in 2009, 2011 and 2020. By massively acquiring public and private debt on the European market to serve the refinancing demands of banks, the ECB has created favourable financing conditions in the eurozone in a context of crisis and very low interest rates.
Since 2009, the ECB has implemented two ambitious net asset purchase programmes: the Asset Purchase Programme (APP) and the Pandemic Emergency Purchase Programme (PEPP). These programmes are behind an unprecedented increase in the size of the ECB’s balance sheet.
However, though we can observe another doubling of the ECB’s balance sheet between 2020 and 2022, the price per square metre of property in Paris has slightly fallen, compared with a considerable increase over the period from 2011 to 2021.
This is a major break in the trend.
CONCLUSION
Over the long-term historical period, we have observed that the development of prices per square metre in Paris is highly correlated with the monetary policy of the European regulator, in particular via two variables: the spread (10-year OAT – inflation) and the size of the ECB’s balance sheet.
Between 1999 and 2020, a mathematical formula makes it possible to predict with a high degree of relevance the development of prices per square metre in Paris. In short, it suffices to listen to the European Central Bank and to anticipate and model its decisions.
But the years 2021 and 2022 have been marked by a drastic change in macroeconomic indicators.
Inflation has returned to levels not experienced since the 1970s (5.2% in May 2022), which disrupts the spread rate.
Similarly, the ECB’s decision to put in place a massive debt purchasing plan in the context of the public health crisis led to the doubling of its monetary balance sheet, with no particular effect on the price per square metre in Paris.
The two variables that were the drivers of the rise in prices since 1999 can no longer explain the development of the price per square metre of residential property in Paris from 2020 onwards.
The model is broken.
This likely marks the beginning of a wait-andsee period that could lead to a fall in both volumes and prices per square metre (versus inflation).
What remains to be seen is how long the property investor of 2020 will have to endure this market correction and whether Parisian property will play its role of a safe haven investment as it did during the inflationist period of 1970.
Depuis une vingtaine d’années, les prises de conscience écologique dans les décisions politiques et collectives ont conduit de nombreuses villes à travers le monde à mettre la mobilité « propre » au cœur de leurs préoccupations. Il s’agit de développer les véhicules à faibles émissions de polluants locaux (NOx, particules fines, etc.) et de polluants atmosphériques (gaz à effet de serre).
On parle d’un véhicule « propre » lorsque celui-ci produit peu ou pas d’émissions polluantes mais en pratique, aucun véhicule n’est réellement propre. Tous émettent des polluants locaux et des gaz à effet de serre lors de leur fabrication, de leur utilisation et de leur fin de vie.
Cet article traite principalement de la mobilité « zéro émission directe » (nommée zéro émission ou ZE par souci de simplification) qui n’émet aucune pollution directe (d’échappement), à la différence de la mobilité décarbonée qui émet peu ou pas de CO2, et qui elle dépend du mix énergétique de chaque pays.
Les réglementations européennes imposant des transports publics basse ou zéro émission ont fait croître le nombre d’appels d’offres émis par des métropoles pour ces modes de transport et, en France, la loi LTECV (Loi de Transition Energétique pour la Croissance Verte ) programme des investissements dans les infrastructures de transport.
A l’heure actuelle, les bus à batterie électrique sont les solutions les plus avancées d’un point de vue technique et industriel en matière de transport zéro émission. La demande de bus électriques à batterie est donc en forte hausse en Europe et la capacité des opérateurs à mettre en place ces véhicules dans les villes, tout en trouvant un équilibre économique, présente un fort enjeu stratégique.
En amont, la construction d’une filière industrielle de batteries électriques en Europe est en cours afin de répondre à cette demande, de sécuriser l’approvisionnement provenant actuellement majoritairement de Chine, créer des emplois… et également répondre à une nécessité environnementale. En effet, dans les analyses de cycles de vie, lorsque la batterie est fabriquée en Chine, le bilan environnemental du véhicule électrique, en prenant en compte la fabrication et transport, peut être décevant. Cependant, le déploiement de flottes électriques est complexe : il requiert un investissement initial plus important que pour une flotte classique, à la fois pour l’acquisition de la flotte elle-même et pour la mise en place des infrastructures (adaptation et modernisation des centres bus et dépôts, puissance de rechargement, etc.). Il implique de surcroît des contraintes d’exploitation plus lourdes (temps de rechargement, gestion de la performance des batteries, etc.). La mise en place de ces flottes de transport public électrique exige donc des choix financiers et stratégiques complexes de la part des industriels, des investisseurs et des opérateurs.
Le travail de fond que nous avons mené et synthétisé dans le présent document permet de comprendre les évolutions à l’œuvre dans le secteur des batteries électriques, mais aussi d’identifier les principaux leviers de création de valeur, en fonction de divers scénarios à l’échelle de la batterie, du bus ou de la flotte. Nous mettons enfin en lumière d’autres tendances dans la mobilité de demain, qui sont à envisager d’un point de vue aussi bien stratégique (nouveaux business models) que technologique (pile à hydrogène).
A. La production de batteries électriques est actuellement assurée à 90% par l’Asie (60% par la Chine à elle seule). Devant la forte croissance du marché, le désir d’assurer une certaine indépendance et la volonté d’obtenir une réelle amélioration du bilan environnemental, une filière européenne de batteries électriques est en train d’émerger, basée sur plusieurs consortiums.
La construction de cette filière s’accompagne d’une augmenta-tion des capacités de production au niveau mondial, qui aura pour conséquence la diminution du prix d’achat.
B. Les coûts de revient par kWh seront également réduits d’une part grâce aux innovations technologiques en cours, et d’autre part grâce à l’amélioration des techniques de recyclage et à l’augmentation de la capacité des batteries.
C. Notre analyse de la chaîne de valeur et de la structure de coûts d’une batterie a permis d’identifier les étapes de production présentant le plus de valeur ajoutée. Puis, une analyse chiffrée a permis d’évaluer des leviers créateurs de valeur : le Smart Charging ainsi que le recyclage s’avèrent être deux points clés dans la maximisation de la valeur économique de la batterie sur l’ensemble de son cycle de vie.
D. La réalisation de choix stratégiques à certaines étapes clés du cycle de vie de la batterie sont cruciaux pour exploiter au maximum son potentiel de création de valeur. En particulier, la manière de réutiliser la batterie en fin de première vie permet d’optimiser son potentiel économique.
E. Un modèle financier intermédiaire faisant l’articulation entre le modèle du producteur et celui de l’opérateur de bus électriques est en développement : il s’agit du Battery as a Service (BaaS). Ce modèle propose à l’opérateur historique d’utiliser une batterie qui ne lui est ni vendue ni en location simple, mais mise à disposition au moyen d’un contrat souple et sur mesure adapté à ses besoins à tout moment.
F. Par ailleurs, d’autres alternatives de transports en commun basse ou zéro émission émergent aux côtés des véhicules à batteries électriques, tels que les bus électriques à hydrogène (zéro émission) ou les bus au bio gaz naturel (basse émission). Autant d’arbitrages à effectuer pour les investisseurs, opérateurs et autres acteurs de ce secteur, et qui nécessitent un accompagnement stratégique sur mesure.
INTRODUCTION
Les nouvelles réglementations et l’accessibilité économique ont fait naître ou grandir dans de nombreuses villes l’ambition de réduire les émissions de CO2 en mettant en place des flottes de transport public zéro ou basse émission. Par ailleurs, les Accords de Paris pour le Climat ainsi que les lois relatives à la transition énergétique en Europe ont fixé des objectifs précis d’ici 2025 et 2030, en particulier la loi LTECV (Loi de Transition Energétique pour la Croissance Verte ) d’août 2015 en France. Enfin, depuis une dizaine d’années, l’amélioration des performances des batteries électriques, la diversification de l’offre (autonomie, capacité, temps de charge, …), une demande en forte croissance et la baisse des prix ont permis un essor de la mobilité électrique.
Le secteur des transports zéro émission (électrique à batterie ou à hydrogène) ou basse émission (biogaz) se révèle encore plus stratégique dans cette période post-confinement liée au Covid-19, qui a mis davantage en lumière les enjeux de transition énergétique. Comme rappelé par l’ONU, le COVID-19 « donne l’occasion à l’humanité de transformer cette crise en un élan planétaire pour atteindre les objectifs de développement durable d’ici 2030 ».
Cependant, le parcours entre l’ambition et la mise en œuvre est semé d’embûches. Par exemple la ville de Paris, via la RATP et Ile-de-France Mobilités, visait une flotte de bus 100% propres d’ici 2025, avec 80% de bus électriques et 20% de bus à gaz naturel (« plan bus 2025 »), mais les contraintes économiques sont telles qu’aujourd’hui l’objectif est plutôt de remplacer les deux tiers seulement de la flotte par des bus électriques, le dernier tiers étant constitué de bus biogaz (bio-GNV)1. Ces contraintes concernent aussi bien l’investissement financier que les modèles économiques et opérationnels d’exploitation.
Mais commençons par rappeler les enjeux actuels du marché des batteries électriques.
1. LE MARCHE ACTUEL DES BATTERIES ELECTRIQUES
A. L’essor d’une filière industrielle européenne durable et compétitive des batteries électriques
Depuis une dizaine d’années, le marché des batteries Lithium-ion a explosé et, aujourd’hui, deux grandes tendances se distinguent (figure 1) :
• La baisse du prix des batteries Lithium-ion, qui s’élevait à 209$ par kWh en 2017 et devrait descendre sous la barre des 100$ par kWh d’ici 2025 ;
• L’augmentation de la capacité de production mondiale, estimée à 13% par an en moyenne entre 2018 et 2030.
Aujourd’hui, la production mondiale de batteries Li-ion tous usages confondus totalise une capacité de l’ordre de 500 GWh. L’Asie, et en particulier la Chine, est largement leader dans ce secteur : la production chinoise à elle seule représente environ 10 fois la production européenne.
Ainsi, 7 des 10 premiers producteurs de batteries Li-ion au monde sont chinois – le leader étant le géant CATL – représentant une capacité de l’ordre de 300 GWh2.
Figure 1 : Evolution de la capacité de production et des prix des batteries Li-ion tout usage entre 2005 et 20303 4 5
Le sous-périmètre des véhicules électriques à batterie Li-ion représente 70% de ce marché, soit environ 350 GWh. Et 40% de ce sous-périmètre concerne plus particulièrement les bus et autres véhicules commerciaux, soit 140 GWh. Cette production est également largement dominée par la Chine et en particulier l’entreprise chinoise CATL (70%6 du marché des batteries de bus), du fait que l’électrification des flottes de bus en Chine ait été poussée par le gouvernement beaucoup plus tôt qu’en Europe : dès 2009, la ville de Shenzhen a bénéficié de subventions gouvernementales pour le développement de sa flotte électrique.
Même si la production reste majoritairement chinoise, les Etats-Unis et l’Europe devraient gagner des parts de marché : 40% de la production mondiale de batteries électriques en 2030, contre 10% seulement en 2020. Cet essor des capacités de production non-asiatiques conduira à un meilleur équilibre entre offre et demande et participe donc à une baisse des prix, tout comme les gains de productivité des usines du fait d’économies d’échelle, et l’augmentation de la capacité des chaînes de production. Ainsi, la gigafactory du constructeur Tesla dans le Nevada produira 35 GWh annuels en 2020 contre 20 GWh en 2018. De même, la société suédoise Northvolt, partant d’une capacité initiale de 16 GWh, envisage le doublement de la capacité de production de son usine d’ici 2030 et atteindra 150 GWh en 2050.
Pour ce qui est de l’Europe plus particulièrement, la filière européenne se construit là où les risques politiques sont faibles, les incitations financièresimportantes, et les démarches administratives facilitées. Il faut un accès aisé à de la main d’œuvre qualifiée, des ressources énergétiques fiables,ainsi qu’un approvisionnementde matières premières sécurisé. Toutes ces conditions sont réunies en Europe, où l’engagement pour la transition vers un système faible en émission est par ailleurs important. La présence d’ingénieurs hautement qualifiés est également un atout pour les années à venir, dans un contexte d’évolutions technologiques rapides. Tous ces éléments ont fait de l’Europe une zone à haut potentiel pour la production de batteries électriques, et des moyens politiques et financiers importants y sont mobilisés pour faire émerger des projets européens ou transnationaux.
Ainsi, comme le montre la figure 2 ci-dessus, même si l’Asie reste dominante sur le marché des batteries électriques, un rééquilibrage international va s’opérer d’ici 2030, en particulier au niveau européen.
Figure 2 : Evolution de la capacité de production des batteries Li-ion par région (localisation selon le siège social des entreprises)4
La figure 3 présente le panorama actuel de la production de cellules et de batteries électriques en Europe. On y voit la forte implantation d’acteurs asiatiques, ainsi que les projets européens de construction d’usines de très grande envergure, visant à structurer une filière industrielle durable et viable économiquement.
Le programme de l’Union européenne European Battery Alliance (EBA250), lancé en octobre 2017, est constitué de 17 entreprises privées directement impliquées sur toute la chaîne de valeur : BASF, BMW, Eneris, et surtout la coentreprise ACC (Automotive Cells Company) entre PSA (et sa filiale allemande Opel) et SAFT (filiale de TOTAL). Elles sont accompagnées par plus de 120 autres entreprises et organismes de recherche partenaires, ainsi que des acteurs publics tels que la Banque européenne d’Investissement. L’objectif est de développer des technologies hautement innovantes et durables pour des batteries Li-ion (à électrolyte liquide et à semi-conducteurs) plus sûres, plus respectueuses de l’environnement, présentant une durée de vie plus longue et un rechargement plus rapide que celles actuellement sur le marché. EBA250 bénéficie de 5 milliards d’euros de financement privé et 3,2 milliards d’euros de financement public, dont 1 milliard provenant de la France et 1,2 milliard de l’Allemagne.
Figure 3 : Projets d’usines de production de cellules et de batteries en cours en Europe7 8 9 10 11 12
Concrètement, ACC, souvent appelé l’« Airbus des batteries », va construire une usine pilote dans le sud-ouest de la France, puis deux usines de production de cellules pour batteries électriques dans les Hauts-de-France et en Allemagne. Un autre projet majeur, de construction d’une gigafactory, est porté par la start-up française Verkor13 (soutenue notamment par Schneider Electric) et vise à produire des cellules Li-ion pour l’Europe du sud (France, Espagne, Italie) à partir de fin 2023. Ce projet s’inspire directement de la start-up suédoise Northvolt qui a levé 1 milliard d’euros auprès d’investisseurs privés (dont Volkswagen, BMW et Goldman Sachs) pour financer la création d’une usine de production de batteries lithium-ion en Suède. Le projet de Verkor représente 1,6 milliard d’euros d’investissement et l’usine s’étalant sur 200 hectares s’implantera probablement en France. De la même manière, l’entreprise norvégienne Freyr a lancé la construction d’une usine de fabrication de cellules de batterie en Norvège (4,5 milliards d’euros) qui aura une capacité de 32 GWh dès 2023, et sera l’une des plus grandes en Europe.
Enfin, d’autres projets se développent pour construire une filière européenne de recyclage des batteries, étape clé de la chaîne de valeur. Porté par Eramet, BASF et Suez, le projet ReLieVe (Recycling for Li-ion batteries for Electric Vehicle) – avec un budget de moins grande ampleur de 4,7 millions d’euros – vise à développer un procédé innovant et compétitif de recyclage, dit « en boucle fermée », permettant la valorisation du nickel, du cobalt, du manganèse et du lithium dans de nouvelles batteries.
B. De meilleures performances grâce à de nouvelles technologies de conception et de recyclage conduisent à une baisse des coûts de revient
Les performances techniques telles que l’autonomie ou la capacité spécifique (énergie stockée par unité de masse) des batteries électriques devraient tripler d’ici 2030 grâce à de nouvelles technologies de batteries, comme le montre la Figure 4 à droite. Des innovations incrémentales des batteries Li-ion permettront à court terme de remplacer les métaux rares tels que le cobalt et le manganèse, utilisés pour la fabrication des électrodes, trop chers et polluants. La diminution de 33% de la teneur en cobalt, partiellement remplacé par du nickel bien moins coûteux, permettra de compenser l’augmentation du prix du cobalt de 40% prévue entre 2020 et 2030. Avec 60% de nickel, 20% de manganèse et seulement 20% de cobalt, la technologie NMC 622 va remplacer les batteries de type NMC 111 (contenant un tiers de cobalt) et représenter 30% du marché en 2030. A l’horizon 2030, on s’attend à voir apparaitre des technologies de rupture, avec notamment de nouvelles cathodes et avec une électrolyte solide augmentant sensiblement la fiabilité de la batterie. Les batteries actuelles à électrolyte liquide fonctionnent efficacement à température ambiante et sur une plage maximum entre 0° à 45°C14, alors que l’utilisation d’électrolytes solides permet une utilisation plus large, entre -20°C et 100°C15. Par ailleurs, Samsung a récemment breveté une batterie dans laquelle des boules de graphène recouvrent la cathode et l’anode : celle-ci a alors une vitesse de recharge cinq fois supérieure. Les batteries à anodes en silicone, quant à elles, offrent des capacités plus importantes grâce à la substitution de l’anode en graphite habituelle par une anode en silicone issue de la purification du sable.
Figure 4a : Evolution des technologies de batteries à l’horizon 203016 17
Figure 4b : Evolution des parts de marché des différentes technologies de batteries Li-ion à l’horizon 2030
Enfin, les coûts de recyclage devraient décroître à mesure que les techniques actuelles (hydrométallurgie et pyrométallurgie) seront mieux maîtrisées. Une nouvelle technique bien moins coûteuse est en cours de développement, il s’agit du procédé « de valorisation directe » : l’électrolyte et les matériaux constitutifs des cathodes sont récupérés directement pour être réutilisés sans traitement métallurgique. La figure 5 ci-après présente les avantages et inconvénients de chacune de ces méthodes de recyclage.
Figure 5 : Nouvelles méthodes de recyclage : des solutions moins coûteuses et plus respectueuses de l’environnement18 19 20
La conjugaison des éléments précédemment cités (performances améliorées, diminution des proportions de matériaux rares, nouveaux procédés de recyclage) permet une réduction drastique des coûts de revient d’ici 2030, faisant du marché des batteries électriques un secteur prometteur pour les investisseurs. Notre modèle de structure de coût (cf. figure 6 ci-dessous) indique que d’ici 2030, le coût de revient d’une batterie NMC 111 sera réduit d’au moins 25% par rapport à son niveau actuel.
Pour les futures technologies de batterie cette réduction sera plus importante. Par exemple, Tesla annonce une réduction de 56% d’ici 2022 du prix de production au kilowattheure de ses nouvelles batteries grâce à une série d’améliorations techniques. Bien que les coûts soient appelés à diminuer significativement, l’équation financière des flottes de véhicules électriques demeure complexe. Notre analyse du cycle de vie de la batterie, de la structure de coûts et des facteurs de performance permet d’identifier quelques leviers de création de valeur susceptibles de faire toute la différence pour les opérateurs de transport.
Figure 6 : La structure de coût d’une batterie (NMC 111) permet d’anticiper son coût de revient d’ici 2030
2. MAXIMISER LA VALEUR D’UNE BATTERIE GRACE AU DETAIL DES COÛTS AU COURS DU CYCLE DE VIE
A. Une structure de coûts qui révèle les étapes ayant la plus forte valeur ajoutée dans le cycle de fabrication d’une batterie
La chaîne de valeur des batteries électriques se décompose en plusieurs étapes (figure 7) : approvisionnement en matières premières, fabrication des composants chimiques de base, conception et production de cellules générant l’énergie électrique, conception et production de modules, fabrication des packs (protection mécanique contre les chocs, vibrations), intégration de la batterie dans des systèmes intelligents de contrôle et de gestion des performances (Battery Management System) et, enfin, recyclage des composants et métaux en fin de vie, qui implique une revalorisation de la batterie afin de gagner de la valeur.
Figure 7 : Chaîne de valeur d’une batterie électrique : enjeux et challenges21 22
Pour établir la structure de coûts d’une batterie, nous avons étudié chaque étape afin d’évaluer son impact sur la valeur d’une batterie neuve. Quatre types de dépenses sont communs à chaque étape : frais d’achats (matières premières ou composants), coûts de main d’œuvre, frais de R&D et frais fixes (dépenses liées à l’électricité ou aux matériaux supplémentaires nécessaires à la conception des cellules).
L’étape de fabrication des composants de base de la batterie est la plus coûteuse (26% du coût total), car elle concerne les nombreux éléments constituant les électrodes et le solvant contenu dans l’électrolyte. L’intégration de la batterie dans un système intelligent constitue également une étape clé (22%) en raison de l’importance du software pour le suivi des performances de la batterie, qui nécessite un investissement important en R&D. Cette étape est aussi celle qui présente la plus forte valeur ajoutée, dans la mesure où l’augmentation de la production ne va pas conduire à une explosion du coût des recherches R&D, ces dernières ayant déjà été réalisées en amont. Enfin, l’étape de conception et de production de cellules est la 3ème plus coûteuse et est caractérisée par des coûts de main d’œuvre et des frais de R&D significatifs.
Figure 8 : Chaîne de valeur d’une batterie NMC 111 en 202023 24
B. Identification des étapes-clés du cycle de vie pour maximiser la valeur de la batterie
Le State of Health (SoH) d’une batterie, l’état de santé de la batterie, est un indicateur servant à optimiser son utilisation. Les contrats de mobilité auprès d’opérateurs de bus électriques sont généralement prévus entre 100% et 80% du SoH. Au-delà, la batterie n’est plus utilisable avec la même sécurité et la même efficacité, c’est la fin de sa première vie. La batterie est alors à un moment de clé de son cycle de vie où des choix doivent être faits : si les performances le permettent la batterie peut être prolongée dans un autre contrat, ou bien elle peut être réaffectée à du stockage d’énergie stationnaire en seconde vie (pour par exemple équilibrer le réseau), ou encore revendue en fin de vie pour être recyclée et certains de ses composants sont alors raffinés pour être réutilisés.
Figure 9 : Cycle de vie d’une batterie électrique (en fonction du SOH)
Le State of Health (SoH) d’une batterie permet d’évaluer son état. Quatre facteurs peuvent entraîner une dégradation (baisse de la capacité et augmentation de la résistance interne) d’une batterie :
• La température (T) : les températures extrêmes affectent négativement l’état de santé d’une batterie. A hautes températures, l’activité interne des batteries augmente diminuant leur capacité ; et sous 0°C, la résistance interne augmente considérablement, accélérant ainsi le vieillissement des batteries25.
• La vitesse de charge et de décharge (C-rate) : elle correspond à l’intensité du courant électrique traversant la batterie. Plus elle est élevée, plus le vieillissement de la batterie s’accélère.
• L’état de charge (SoC – State of Charge) : il s’agit du pourcentage d’énergie stockée par la batterie, par rapport à son état de charge totale. La capacité de la batterie diminue non seulement durant la charge/ décharge mais aussi, dans une moindre mesure, lorsqu’elle n’est pas utilisée ou stockée si elle n’est pas vide. Un stockage des batteries avec un SoC relativement faible est donc préconisé pour limiter leur dégradation. Pour optimiser sa durée de vie, le rechargement d’une batterie à 100% pour équilibrer des cellules devrait aussi être occasionnel.
• L’état de décharge (DoD – Depth of Discharge) : il représente le pourcentage d’énergie qui a été perdue par la batterie depuis sa dernière recharge et donc caractérise son profil de charge. Plus de DoD est profond plus la batterie se dégrade rapidement. Selon le type de batterie utilisé, le DoD optimal (difficilement possible opérationnellement !) varie entre 50% et 70%.
La connaissance des facteurs de dégradation de la batterie permet d’anticiper cette dégradation en fonction à la fois de l’utilisation qui en est faite, de sa technologie, du suivi de ses performances et de sa conservation. Par exemple, les modes de charge et de décharge varient fortement selon que la batterie est utilisée en zone urbaine ou périurbaine – un usage périurbain conduira à une dégradation plus importante du fait de l’importance des distances parcourues, qui nécessitent des recharges plus fréquentes et rapides.
Partant de ces facteurs, nous avons mis en exergue des leviers créateurs de valeur pouvant être activés pour contrôler et maximiser la valeur de la batterie au cours de son cycle de vie. Ces leviers concernent l’optimisation de l’utilisation, la gestion de ses performances ou encore la gestion des batteries usagées.
Figure 10 : Les 10 leviers créateurs de valeur d’une batterie électrique
Un de ces leviers est le smart charging, c’est-à-dire l’ensemble des technologies intelligentes et innovantes permettant la recharge des bus électriques au moment optimal : non-saturation du réseau en demande d’électricité, absence de concomitance des pics de demande entre ménages et véhicules électriques, par exemple.
Un deuxième levier intéressant concerne l’amélioration des techniques de recyclage, entraînant une dynamique de baisse des coûts de recyclage. En effet, l’amélioration continue des techniques actuelles (hydrométallurgie et pyrométallurgie) et l’apparition de nouvelles techniques efficaces (procédé « de valorisation directe ») contribuent à privilégier au fil du temps une utilisation prolongée de la batterie dans un 2ème cycle de vie puis un recyclage, au lieu d’une utilisation plus courte qui se limiterait au 1er cycle de vie puis à la vente de la batterie.
Enfin, un troisième levier concerne la gestion de la performance de la batterie-, et donc des savoir-faire associés au suivi des performances. Des contrats dits « de maintenance » sont proposés par les fournisseurs de batteries, dans le cadre desquels le suivi se fait en mesurant différents paramètres (SoC, DoD,C-rate, intensité de charge, température en charge/décharge…) via un Battery Management System (BMS) : la batterie subit divers cycles de charge et de décharge en conditions variables, et l’analyse des données collectées par le BMS peut conduire à son remplacement si elle est trop dégradée ou si les conditions d’utilisation du contrat ne peuvent plus être respectées, en particulier de sécurité. Mais ce suivi des performances s’avère actuellement relever davantage d’une assurance que d’une maintenance à proprement parler. C’est pourquoi un levier créateur de valeur consisterait à renégocier le contrat pour le rapprocher des coûts réels de suivi des performances ou bien à internaliser ce savoir-faire pour des raisons plutôt stratégiques que financières. En effet, le contrôle des données d’exploitation et d performance des batteries en temps réel est un enjeu crucial, car il permet d’adapter les technologies de batteries au plus près de l’utilisation qui en est fait.A noter néanmoins que ce dernier levier est difficilement applicable à l’heure actuelle car de nombreux constructeurs de batteries ne permettent pas à leurs clients d’internaliser cette prestation.
A titre d’illustration, nous avons modélisé dans l’exemple ci-après les effets de différents leviers pour une flotte de 25 bus, dans un contexte urbain et dans un contexte péri-urbain. Les alternatives étudiées sont : le smart charging ou non au cours de la 1ère vie, la revente de la batterie ou la réutilisation dans un nouveau contrat en fin de 1ère vie, ou bien encore la réutilisation dans des infrastructures de stockage d’énergie stationnaire en 2ème vie (en tant que réserve de capacité dans ce cas particulier). Nous constatons alors que :
• Le smart charging crée systématiquement de la valeur, et présente en outre l’avantage d’être simple à mettre en œuvre ;
• La régulation de fréquence n’est pas intéressante, en raison d’un coût d’investissement élevé, d’une durée de seconde vie trop faible et d’un prix de revente de l’énergie trop faible en France ;
• L’utilisation dans un nouveau contrat en fin de 1ère vie, plutôt que la revente en fin de 1ère vie, est surtout intéressante dans le scénario urbain, car la batterie se dégrade moins rapidement dans ce scénario.
Autant de facteurs de décisions opérationnelles qui ont un impact réel sur le modèle économique des flottes électriques. Cela dit, au-delà de ces leviers permettant aux opérateurs d’optimiser les performances des batteries, d’autres pistes encore sont à explorer face aux complexités du modèle classique des bus électriques : le premier consiste en un nouveau modèle financier et opérationnel de gestion de ces bus, et l’autre est constitué de modes alternatifs de transport basse ou zéro émission.
Figure 11 : Calcul de la NPV d’une batterie NMC selon l’utilisation et l’activation de certains leviers26 27
3. DE NOUVELLES PERSPECTIVES DANS LA GESTION DES BUS ZERO EMISSION
A. L’émergence de nouveaux modèles économiques : le modèle BaaS
Malgré l’importance des avancées technologiques et la réduction prévisible du coût de revient d’une batterie électrique, les contraintes techniques restent importantes pour les opérateurs de transport électrique. Tout d’abord, l’investissement en capital immobilisé est bien plus important que pour des véhicules classiques (Capital Expenditure supérieur de plus de 50% à celui d’une flotte diesel28). En outre, la maîtrise des performances, la maintenance des batteries et les décisions à prendre lorsque leur efficacité est réduite sont des paramètres complexes à mettre en œuvre pour les opérateurs de bus historiques. Dans ce contexte, l’émergence du modèle BaaS (Battery as a Service) semble naturelle.
Le Battery as a Service consiste à libérer les opérateurs des contraintes et risques liés à la gestion d’une batterie. Le prestataire, l’opérateur BaaS, s’occupe de tous les aspects liés à son utilisation, de la certification de la batterie (conforme aux normes de sécurité ou aux normes environnementales) à son recyclage en passant par le suivi des performances. L’opérateur BaaS s’assure qu’à tout instant le service fourni est conforme aux attentes du client, dans une logique d’optimisation de la valeur. Il se charge ainsi de trouver le contrat et le profil d’utilisation optimal pour la batterie, en fonction de l’étape du cycle de vie – et donc en fonction des performances – de celle-ci à un instant donné. C’est la maîtrise des différents leviers de valeur, ainsi que la connaissance fine des performances de la batterie, qui permettent à l’opérateur BaaS de déterminer le profil parfait de client ou de contrat adapté à sa batterie. Parmi les entreprises de BaaS les plus connues, on peut citer Global Technology Systems, Yuso, Swobbee ou encore Epiroc.
Figure 12 : Trois business models différents
B. Le développement de nouveaux modes de transport basse ou zéro émission
Figure 13 : Prévisions du nombre de bus électriques et à hydrogène jusque 2025
Parallèlement à l’essor des bus à batteries électriques, d’autres mobilités propres se développent, telles que les bus à basse émission fonctionnant au bio Gaz Naturel pour Véhicules (bio-GNV) ou les bus zéro émission à hydrogène. Ces technologies sont en forte croissance à travers le monde, malgré des écarts de maturité selon les pays.
En fonction de la source énergétique locale, les bus fonctionnant au bio-GNV constituent une technologie basse émission (réduction de 25% des émissions de fumées toxiques en comparaison avec les véhicules à essence) qui a l’avantage d’avoir une excellente autonomie et un temps de recharge court. Cependant les infrastructures à mettre en place sont lourdes et coûteuses.
Les bus ZE électriques (batterie ou hydrogène) sont deux technologies complémentaires. En effet la technologie hydrogène (plus coûteuse) est pertinente là où la batterie atteint ses limites ou alors dans de futurs cas (saturation réseau par exemple). Mais surtout, cette technologie zéro émis-sion offre une autonomie importante et des cycles de recharge relativement courts (Air Liquide estime qu’un bus peut être rechargé en moins de 20 minutes29). Néanmoins, l’infrastructure requise est lourde (bornes de rechargement en hydrogène) et le réseau est pour le moment inexistant ou à l’état embryonnaire dans la plupart des grandes villes. De nombreuses agglomérations françaises ayant néanmoins manifesté leur intérêt pour cette technologie en lançant des projets pilotes, le récent plan de relance du gouvernement à la suite de la crise sanitaire consacrera plus de 7 milliards d’euros sur 10 ans à cette énergie d’avenir, afin de construire des usines capables de produire notamment les électrolyseurs (permettant de transformer l’électricité en hydrogène par l’électrolyse de l’eau). Le Plan hydrogène prévoit par ailleurs un financement de 1,5 milliard d’euros pour développer une filière industrielle de l’hydrogène à l’image de ce qui a été réalisé pour les batteries électriques – cela en coopération avec l’Allemagne.
Figure 14 : De nouveaux types de mobilités faible ou zéro émission30 31
CONCLUSION
L’enjeu principal d’évolution du secteur des batteries électriques est de démultiplier significativement l’offre, afin de suivre l’augmentation considérable de la demande. Ce chantier se traduit actuellement par la mise en place d’une filière européenne durable et compétitive de production et de recyclage des batteries.
En parallèle, les technologies de batteries s’améliorent, ces dernières gagnant en autonomie et en capacité spécifique. Les méthodes de recyclage font également l’objet d’innovations techniques cruciales qui devraient mener, par ailleurs, à une diminution importante du coût de revient d’ici 2030.
Cependant, les contraintes restent importantes pour les acteurs de la mobilité électrique : l’importance de l’investissement en capital, la maîtrise des performances des batteries et la complexité des décisions à prendre lorsque leur efficacité commence à décroître sont autant de paramètres qui ont favorisé l’émergence de nouveaux modèles économiques d’utilisation de batteries, tels que le modèle BaaS, mais aussi d’autres modes de mobilité propres qu’il convient de suivre de près, tels que les bus à hydrogène.
Ces évolutions, de modèles économique et de technologie, devraient conduire les acteurs historiques et les nouveaux entrants du secteur des transports zéro émission à redéployer leur stratégie et politique d’investissement. Dans cette phase de mutations importantes pour l’ensemble du secteur, Accuracy a développé un cadre d’accompagnement stratégique, afin que ces acteurs identifient et saisissent les opportunités réellement durables et rentables de la chaîne de valeur.
1 De moins en moins de bus électriques dans la future flotte de la RATP, Ville Rail & Transports, Marie-Hélène Poingt, 04.03.2020
2 https://www.energytrend.cn/news/20191014-76629.html, Institut de recherche de point de départ (SPIR)
3 Lithium-ion Battery Costs and Market, Bloomberg New Energy Finance, 05.07.2017
4 Developing a promising sector for Quebec’s economy, Propulsion Québec, avril 2019
5 Roadmap Battery Production Equipment 2030, VDMA, 2018
6 http://escn.com.cn/news/show-711124.html, China Energy Storage Network
7 Comment la filière des batteries pour véhicules électriques tente de se structurer en Europe, L’Usine Nouvelle, 06.09.2019
8 CATL starts building battery plant in Germany, electrive.com, 19.10.2019
9 LG Chem battery gigafactory in Poland to be powered by EBRD, European Bank, 07.11.2019
10 https://northvolt.com/production
11 https://www.envision-aesc.com/en/network.html
12 Samsung SDI expands its battery plant in Hungary, INSIDEEVs, 24.02.2020
13 Avec Verkor, la France compte un autre projet de giga-usine de batteries, Les échos, Lionel Steinman, 30.07.2020
14 La batterie Lithium-Ion, mieux comprendre pour mieux s’en servir, Amperes.be, 10.05.2017
15 La batterie à électrolyte solide : une révolution pour l’automobile, Les numériques, Erick Fontaine, 23.11.2017
16 Study on the Characteristics of a High Capacity Nickel Manganese Cobalt Oxide (NMC) Lithium-Ion Battery—An Experimental Investigation, www.mdpi.com/journal/energies, 29.08.2018
17 Oxygen Release and Its Effect on the Cycling Stability of LiNixMnyCozO2 (NMC) Cathode Materials for Li-Ion Batteries, Journal of The Electrochemical Society, 02.05.2017
18 A Mini-Review on Metal Recycling from Spent Lithium Ion Batteries, www.elsevier.com/ locate/eng
19 The recycling of Lithium-ion batteries, Ifri, 2020
28 Analyse coûts bénéfices des véhicules électriques – Les autobus et autocars, Service de l’économie, de l’évaluation et l’intégration du développement durable, octobre 2018
La BFI devrait connaître en Europe les premières hausses de ROE depuis six ans. Mais celles-ci ne permettront sans doute pas de combler le fossé qui s’est creusé entre les performances des BFI européennes et américaines.
Depuis dix ans, les revenus des banques de financement et d’investissement mondiales étaient en baisse régulière, diminuant de plus de 30 milliards sur un total de plus 180 milliards de dollars1. Parmi les trois métiers de la banque de financement et d’investissement, les activités de marché et notamment de fixed income, qui représentaient près de 60 % des revenus il y a dix ans, ont été les plus impactées, perdant depuis 2012 plus d’un tiers de PNB.
Dans ce contexte, l’année 2020, pourtant marquée par la crise sanitaire, devrait symboliser le rebond de la banque de financement et d’investissement, avec les premières hausses de ROE depuis six ans. Cette embellie profite aux trois métiers. La banque d’investissement et la banque d’affaires devraient voir leurs revenus progresser de 20 % à 30 %. Le métier le plus en progression cette année serait le fixed income, avec des revenus historiques, en hausse de 50 %. Sur ce métier, les banques profitent d’une hausse de la demande, les entreprises cherchant à se couvrir en taux et en change durant le confinement et à sécuriser leurs financements.
En France, la situation reste néanmoins contrastée et deux tendances se dessinent sur les revenus. D’un côté, BNP Paribas connaît une progression soutenue de ses revenus en corporate banking et global markets, avec des performances records notamment dans ses points forts historiques (fixed income, change et matières premières). Crédit Agricole voit également ses revenus augmenter sur un an, portés par la hausse des besoins en couverture et des émissions obligataires. D’un autre côté, BPCE et Société Générale voient leurs revenus baisser sur un an, à cause en partie des dérivés actions, impactés par la suspension des dividendes.
L’écart avec les banques américaines
Les bonnes performances de BNP Paribas, Crédit Agricole et d’autres banques de financement et d’investissement (BFI) européennes pourraient amener certains observateurs à s’interroger sur leur capacité à réduire l’écart avec les banques américaines. Le fossé qui s’est creusé depuis dix ans entre BFI européennes et américaines, traduit par un décalage dans les revenus et dans l’efficience opérationnelle, semble néanmoins difficile à combler. En effet, les banques américaines ont capté ces deux dernières années deux tiers des revenus mondiaux de l’activité global market et 50 % des revenus de banque d’investissement. En Europe, seules les banques suisses (UBS et Crédit Suisse) et BNP Paribas parviennent à contester une partie du pool de revenus aux banques américaines, sur des activités ciblées (DCM et fixed income pour BNP Paribas, ECM et equity pour les banques suisses). Depuis 2012, la part du Produit net bancaire (PNB) de la banque de financement et d’investissement dans le PNB total des banques européennes stagne autour de 30 % quand celui des banques américaines a évolué de 39 % en 2012 à 44 % en 2019, le PNB de la banque de détail américaine restant pourtant stable sur cette période. S’agissant des charges, les BFI européennes accusent le coup, comme l’atteste l’écart de coefficient d’exploitation de +15 points avec les banques américaines2. Pire, les coefficients d’exploitation des banques américaines sont homogènes, lorsque l’on note une forte dispersion chez les banques européennes. Le rapport entre revenus et fonds propres alloués est également défavorable aux BFI européennes, symbolisant la capacité des banques américaines à optimiser leurs emplois pondérés.
Un marché européen fragmenté
Les origines du retard des BFI européennes sont structurelles et ne peuvent donc être rapidement gommées. Quatre raisons expliquent l’hégémonie des BFI américaines face à leurs concurrentes européennes.
Tout d’abord, le marché bancaire européen apparaît fragmenté face à un marché bancaire américain unifié, ce qui contribue à expliquer près de la moitié de l’écart de performance entre les banques américaines et européennes. Les banques américaines bénéficient en premier lieu d’une forte concentration des plus grandes capitalisations boursières mondiales sur leur territoire. A fin 2019, environ 3 000 des 10 000 premières capitalisations boursières mondiales, représentant 35 000 milliards d’euros, avaient installé leur siège en Amérique du Nord. Les BFI américaines profitent donc d’un vaste marché unifié quand les banques européennes composent avec un marché morcelé et subissent les variations de législations entre pays. Sur leur marché domestique, la domination des banques américaines reste donc incontestée. Sur le vieux continent, les BFI européennes reculent au contraire face à leurs concurrentes américaines, perdant près de 10 points de parts de marché au bénéfice de leurs homologues américaines depuis 2010. Les BFI européennes pâtissent de leur trop petite taille ainsi que du nombre d’acteurs réduit capables de capter des parts de marché importantes.
Un modèle opérationnel plus efficient
Ensuite, le modèle opérationnel américain semble plus efficient. En premier lieu, les banques de financement et d’investissement américaines tirent une part plus importante de leurs revenus de leur activité liée aux marchés financiers. L’activité global markets représente en effet deux tiers des revenus de JP Morgan et Morgan Stanley en 2019, contre à peine la moitié pour BNP Paribas ou Natixis et un tiers pour Deutsche Bank. Ces activités de marché sont traditionnellement plus rentables que les activités de financement pour un même niveau de capital investi. De plus, les banques américaines se sont rapidement restructurées post-crise, en passant notamment de larges pertes pour apurer leur bilan et renforcer leur solidité financière. À ce titre, le ratio CET1 moyen des banques américaines a dépassé entre 2015 et 2016 celui des banques européennes, leur permettant d’investir notamment dans le recrutement d’experts en provenance des BFI européennes. Ces dernières ont sans doute également perdu du temps dans leur réflexion continue autour de restructurations tant de leurs activités que dans leurs effectifs. Enfin, les banques américaines cultivent leur modèle d’origination et de distribution des prêts (originate to distribute) quand les banques européennes conservent les créances à leur bilan (originate and hold). Le modèle originate to distribute permet à la fois l’allègement du bilan des banques (deleveraging) et un transfert du risque aux investisseurs ayant un effet favorable sur les niveaux d’exigences réglementaires de capital et de liquidité. Les banques européennes, et notamment françaises, ont à ce titre entamé leur mue depuis 2012 avec pour objectif de transférer une part plus significative de leurs créances aux investisseurs.
Les effets de la réglementation
L’asymétrie entre réglementations européenne et américaine reste encore en vigueur. La réglementation bancaire américaine s’appuie depuis fin 2019 sur un principe de progressivité où les règles applicables aux huit banques d’importance systémique3 sont renforcées par rapport à celles applicables aux banques de taille moins significative (comme les banques régionales par exemple). Les établissements systémiques américains, dits de catégorie 1, sont tenus en matière de capital de détenir plusieurs coussins (coussins G-SIB, contracyclique et de conservation) et d’appliquer le ratio de levier4 et le ratio TLAC. S’agissant de la liquidité, les banques systémiques américaines respectent quotidiennement le ratio de liquidité court terme (LCR). Le Collins Amendment prévoit en outre que l’exigence de fonds propres des banques américaines calculée à partir de leurs modèles avancés représente a minima 100 % de l’exigence de fonds propres calculée selon l’approche standard, l’assiette n’incluant pas le risque opérationnel5. Ces éléments semblent mettre en exergue que la réglementation applicable aux banques systémiques américaines n’est pas moins conservatrice que celle applicable aux banques sous supervision de la BCE.
Deux arguments peuvent néanmoins venir alimenter l’idée d’une asymétrie réglementaire. En premier lieu, les banques européennes incluses dans le mouvement de supervision unique sont tenues de détenir du capital au titre du processus de supervision mené par la BCE (exigence dite de P2R) et du résultat des stress tests réglementaires (exigence dite de P2G). Ces exigences additionnelles propres aux banques sous supervision BCE peuvent mettre à mal la compétitivité des banques européennes face aux banques américaines. D’autre part, la finalisation de Bâle III pourrait être plus défavorable aux banques européennes. L’étude d’impact de l’Autorité bancaire européenne de décembre 2019 a souligné que la finalisation des règles de Bâle III a un impact plus important pour les banques systémiques que pour les petites et moyennes institutions de l’UE (+24,1 % pour les banques systémiques contre 11,3 % et 5,3 % pour respectivement les moyennes et petites banques). L’élément le plus important est la mise en place de l’output floor qui limite le gain de RWA lié à l’utilisation des modèles internes. L’impact de la finalisation de Bâle III serait néanmoins moins pénalisant pour les banques américaines qui ont moins recours aux modèles internes et qui appliquent déjà, dans une version américaine, un floor sur le niveau des emplois pondérés. L’asymétrie réglementaire participe à expliquer près du tiers de l’écart de performance entre banques européennes et américaines.
La divergence de politique monétaire entre la FED et la BCE
Enfin, la politique monétaire et la croissance américaines ont été plus favorables qu’en Europe. Profitant d’un environnement de taux plus accommodant, les banques américaines affichaient au premier trimestre 2019 une marge nette moyenne de près de 3,4 %. Selon l’Autorité bancaire européenne, elle ne s’élevait qu’à 1,4 % environ pour leurs homologues européennes. La divergence de politique monétaire entre la FED et la BCE depuis quatre ans contribue à expliquer ce différentiel de marges entre les marchés européens et américains, la FED décidant de remonter son taux directeur à partir de 2015 lorsque la BCE le maintenait proche de zéro. En outre, les BFI américaines ont pu profiter d’une croissance positive de +1,5 % à +2,5 % par an aux États-Unis depuis 2009, qui excède de loin celle de la zone euro affectée par les crises financières et de la dette souveraine.
Reprendre du terrain aux banques américaines
Si les causes du retard des banques européennes sont multiples, certains leviers semblent devoir être activés par toutes pour reprendre du terrain aux banques américaines : renforcer la part d’activités génératrices de revenus et moins consommatrices de capital comme le M&A ou les marchés d’émissions de titres, initier des programmes d’optimisation de coûts via par exemple le nearshoring et l’offshoring et créer de pôles d’expertises autour de certains métiers (informatique, relation client). Les mois qui viennent, entre fin de crise et début de consolidation européenne, risquent d’être décisifs pour les BFI européennes.
275 % pour les banques européennes contre 60 % pour les banques américaines.
3Bank of America, Bank of New York Mellon, Citigroup, Goldman Sachs, JP Morgan, Morgan Stanley, State Street, Wells Fargo.
4Renforcé à 5 % sur base consolidée, contre 3% dans la réglementation bâloise.
5 Une étude de la Direction des études économiques du groupe BNP Paribas a démontré que cela équivaut à 75% des emplois pondérés incluant les risques opérationnels et de CVA.
Accuracy a conseillé le groupe Argosyn / Martinter lors de la cession au Crédit Mutuel en mai 2020 de sa participation détenue dans Cofidis, à hauteur de 9,36%.
Accuracy a conseillé La Caisse des Dépôts et Consignations dans le cadre du rachat global des participations détenues par l’Agence des Participations de l’Etat et La Banque Postale dans la Société de Financement Local (SFIL), ex-Dexia Crédit Local.
Les résultats 2020 des banques françaises confortent largement les tendances longues sur le métier de la banque de détail en France. A ce titre, il est intéressant d’analyser les chiffres sur cinq ans, pour évaluer l’impact des ruptures à l’oeuvre et comprendre comment ce métier a vu son poids relatif se réduire sensiblement dans le résultat des six plus grandes banques françaises, qu’il y soit très pondéreux (Mutualistes, Banque Postale) ou nettement moins (BNP Paribas, Société Générale).
La baisse des revenus, autour de 1 % par an toutes banques confondues, est le principal moteur de cette évolution. Au sein du produit net bancaire (PNB), c’est naturellement la marge d’intérêts qui recule, en partie à cause des taux bas, en partie du fait des pratiques commerciales.
Cette baisse de marge se traduit par une chute beaucoup plus élevée du résultat brut d’exploitation, avec, depuis 2014, un recul de 5 % par an sur le métier. Le coût du risque baissant fortement, la baisse du résultat net est plus limitée.
Mais outre ce contexte macroéconomique, les banques de détail françaises souffrent des spécificités et pratiques du marché français.
Commençons par le crédit immobilier, le produit « harpon » de la relation-client, qui, depuis toujours, affiche des marges particulièrement ténues en France. Cette pratique s’est avérée très pénalisante lors des vagues de remboursements anticipés de 2015 à 2018. Celles-ci ont coûté plusieurs milliards de PNB au système, pour des gains de parts de marché individuels quasi inexistants.
Pour compenser, les banques ont toutes cherché à développer les encours : ceux à l’habitat ont ainsi augmenté de 28 % depuis 2014, passant de 833 à 1.071 milliards d’euros. La question de la rentabilité de ce choix se pose d’autant plus que, malgré des réseaux d’agences parmi les plus denses en Europe, nos banques utilisent beaucoup les courtiers pour le crédit immobilier (40 % des volumes).
L’autre grand pourvoyeur de crédits, le crédit à la consommation, génère structurellement, des marges plus élevées. L’encours est environ cinq fois inférieur à celui du crédit immobilier (188 milliards d’euros en septembre 2019), et le marché est dominé par les entités spécialisées de BNP Paribas, du Crédit Agricole et du Crédit Mutuel (80 % de parts de marché à eux trois).
Ce produit connaît des taux de croissance de 3 % par an depuis 2014, et il constitue donc un enjeu majeur des plans stratégiques de l’ensemble des banques. Il fait l’objet d’innovations produits régulières, comme le paiement fractionné récemment. La compétition devrait s’accroître dans ce métier dans les années à venir.
Côté épargne, les deux produits réglementés, Livret A et PEL, spécificités du marché français, représentent plus de 540 milliards d’épargne à fin septembre 2019, et les taux qu’ils affichent constituent un handicap dans le contexte actuel.
L’épargne logement représente une autre difficulté pour les banques de détail avec son taux encore plus élevé. Il est passé de 2,5 % à 1 % depuis 2014, mais cela n’a pas empêché les encours de grimper de 60 milliards d’euros dans le même temps, grevant ainsi le PNB des banques qui le collectent, avec un taux moyen de 2,65 %. Là encore, les banques n’ont pas toutes la même politique.
Ainsi, si les six principales banques françaises souffrent à des degrés divers sur le front de la banque de détail, elles n’ont pas toutes les mêmes stratégies. Là où les banques les mieux implantées peuvent faire le choix de l’équipement et des volumes, les banques aux réseaux moins pondéreux se doivent d’être plus diversifiées et plus attentives aux rentabilités de chaque activité.
Les symptômes sont divers, mais, pour redresser la rentabilité, les remèdes sont probablement communs : continuer à mieux segmenter et personnaliser les offres, investir pour ne jamais se laisser distancer par les néobanques en matière d’expérience client. Et peut-être fonctionner enfin différemment sur le front du crédit immobilier. Ce qui semble s’engager en ce début d’année.
Si l’innovation est un sujet stratégique à la fois à l’échelle « macro » des économies nationales et « micro » pour les entreprises concernées, le financement de cette innovation l’est tout autant. Et il s’appuie largement sur les structures d’accompagnement des start-ups.
Alors qu’en France, les premières structures d’accompagnement avaient pour fonction d’offrir un débouché à la recherche publique, l’essor des structures privées s’est accompagné d’une prise en compte croissante de l’impératif de rentabilité. Ainsi, alors même que le nombre de structures d’accompagnement ne cesse de croître, il n’est plus rare d’en voir certaines placées en liquidation judiciaire (Ekito, 33 Entrepreneurs) ou contraintes de pivoter (Numa, Usine IO).
Un modèle économique viable étant difficilement atteignable par les seules prestations de services à destination des start-ups, les levées de fonds sont devenues une source de revenus à part entière pour les structures d’accompagnement, dans un contexte de concurrence accrue entre ces structures. D’ailleurs, la capacité à accompagner des levées de fonds – mesurée par le nombre de levées réalisées, mais aussi les montants collectés – est devenue un signe de performance, parfois de manière réductrice.
Au même moment, le fonctionnement même des levées tend à être remis en question par l’essor de nouveaux usages tels que le financement participatif ou encore le recours à la blockchain et, plus généralement, par des évolutions sociétales importantes. Il est important de prendre la mesure du potentiel et des limites des nouveaux outils et modes de financement, mais aussi des perspectives qu’ils ouvrent pour les acteurs du financement, au premier rang desquels les structures d’accompagnement.
A. Les structures d’accompagnement jouent un rôle important dans le financement de l’innovation en France.
B. Il existe différents modèles de structures, qui proposent chacun une approche différente dans l’accompagnement des levées.
C. Bien qu’en hausse continue, les levées de fonds conventionnelles présentent un certain nombre de limites importantes pour les porteurs de projet.
D. A l’échelle mondiale, le phénomène des Initial Coin Offerings (ICO) a représenté une tentative de réinventer la levée de fonds, remettant notamment en cause le rôle des acteurs traditionnels tels que les fonds d’investissement et les structures d’accompagnement.
E. Capitalisant sur les limites des ICO, de nouvelles pratiques sont déjà en train d’émerger et constituent des opportunités pour les acteurs de l’innovation en France.
1. FINANCEMENT DE L’INNOVATION EN FRANCE : LE RÔLE DES STRUCTURES D’ACCOMPAGNEMENT
A. La forte croissance des activités de capital-risque ces dernières années a considérablement renforcé le rôle des structures d’accompagnement
L’activité de capital-risque, c’est-à-dire le financement d’entreprises à risque mais à fort potentiel, a connu une croissance extrêmement soutenue en France depuis 2015 (près de 30% par an en moyenne pour les levées de fonds de la période 2015-2019). En 2019, c’est ainsi plus de 5 milliards d’euros qui ont été investis dans ce type d’opérations.
Ce phénomène est à mettre en regard de la multiplication du nombre de startups depuis une décennie, qui a entraîné avec elle le développement du marché des structures accompagnatrices. Ces dernières aussi ont vu leur nombre exploser, et plus de 700 communes en France en hébergent désormais au moins une.
Les structures d’accompagnement sont les premiers acteurs à assister les entrepreneurs dans leurs levées. Ainsi, 74%1 du total des montants investis en capital-risque en France vient financer des start-ups incubées. De fait, l’incubation d’une start-up par une structure maximise ses chances de réussir sa levée. Tout d’abord parce qu’elle constitue un signal à destination des investisseurs potentiels, mais aussi parce que l’accompagnement facilite la mise en relation avec des investisseurs ainsi que l’accès aux savoir-faire nécessaires à la conduite de ce type d’opérations.
Evolution des levées de fonds réalisées par les start-ups en France [Md€]
Sources : Baromètre EY 2019 du capital risque, analyses Accuracy
B. Un accompagnement déterminant en amont et tout au long du processus de levée
Au-delà de l’appartenance à un écosystème, source de valeur pour l’ensemble des parties prenantes, l’inscription d’un projet innovant dans une structure d’accompagnement apporte trois bénéfices majeurs : le soutien administratif et financier, l’accompagnement humain nécessaire à la structuration opérationnelle et stratégique de l’entreprise et, enfin, les moyens de mesurer la réponse du marché. Ce
dernier apport peut se traduire par une réflexion sur le modèle économique, la définition des segments clients, la réalisation de sondages ciblés ou encore le développement d’une approche centrée utilisateurs de type design thinking. Toutes ces actions permettent d’amorcer une traction commerciale et d’avancer vers un proof of concept, décisif pour réussir la première levée et ouvrir l’accès à d’autres financements privés dans un second temps.
Ainsi, les start-ups qui atteignent la levée sont en quelque sorte des privilégiées, et le rôle des structures d’accompagnement est déterminant bien en amont de cette étape. Le schéma ci-dessous, qui illustre les ressources disponibles pour les entreprises innovantes en fonction de leur maturité, montre clairement les enjeux autour de l’accompagnement amont. Il présente notamment « la Vallée de la mort », une étape délicate que de nombreuses start-ups ne parviennent malheureusement pas à dépasser.
Si des dispositifs de financement de l’innovation sont disponibles dans les phases de maturation technologique et économique, le bât blesse au moment de la preuve de concept et du lancement commercial. C’est le moment où généralement la start-up a besoin de ressources financières supplémentaires pour booster sa traction commerciale, mais également le moment où elle a précisément consommé tous ses fonds propres. Pas encore assez désirable pour des investisseurs privés en recherche de croissance commerciale (et qui attendent donc justement une preuve que les clients ont validé l’offre !), la start-up est alors en danger de mort.
Cet état de fait est encore plus prégnant dans les territoires non métropolitains, où les ressources financières privées sont moins accessibles alors même que le besoin est plus important du fait du manque de compétences techniques disponibles (concentration dans les grandes métropoles des profils clés du type développeurs) et d’un écosystème plus réduit (difficulté d’accès à des clients grands comptes, à des partenaires industriels, à des spécialistes du financement, etc.).
Description des étapes clés dans la création et le financement d’une start-up
Dès lors, le rôle des structures d’accompagnement avant la levée est primordial, particulièrement dans les territoires, pour réduire autant que possible la durée du passage dans cette « Vallée de la mort ». Plus précisément, il s’agit de retarder au maximum l’entrée dans cette phase, tout en en anticipant la sortie. A cette fin, l’accompagnement va suivre deux axes complémentaires et interdépendants (illustrés dans le schéma ci-dessus) :
• L’accélération de la maturation technologique et commerciale : il s’agit d’orienter les start-ups et de leur donner les moyens techniques afin de concrétiser leur idée et la confronter au marché. L’amélioration technique et le développement économique du projet s’autoalimentent dans un process itératif centré sur le client. In fine, on arrivera au Minimum Viable Product et à une première preuve de concept commercial.
• L’ingénierie administrative et financière destinée à maximiser les effets de levier : pour obtenir la
preuve de concept, il est nécessaire d’anticiper, mobiliser et optimiser les ressources financières qui vont répondre aux besoins techniques, humains et commerciaux. Or, les start-ups maîtrisent parfois insuffisamment la chaîne de financement de l’innovation, notamment les dispositifs proposés par des structures telles que Bpifrance ou par les régions, qui assument de plus en plus leur compétence économique. Au-delà de la connaissance de ces dispositifs, les structures d’accompagnement vont permettre aux start-ups de les mobiliser au bon moment et de bénéficier d’une expérience non négligeable d’ingénierie administrative.
Ces deux axes vont contribuer à sécuriser le parcours des start-ups et lesrendre désirables pour des investisseurs, tout en leur donnant du temps et donc davantage de pouvoir de négociation.
« La maîtrise du financement de l’innovation par notre incubateur est un élément clé de notre croissance actuelle. Elle nous a permis d’obtenir des éléments de preuve de la pertinence technique et commerciale de notre solution et, ainsi, de préparer plus sereinement notre récente levée de 1,5 million d’euros. »
Pierre Naccache co-fondateur d’Asystom
C. Des approches différenciées suivant les structures d’accompagnement
Les structures offrent une très grande diversité de tailles et de modèles, avec des profils variés et donc des approches spécifiques.
Trois grandes familles de structures sont identifiables, celles financées à majorité par des subventions publiques, universitaires ou non, et celles au sein desquelles les capitaux privés sont dominants. Les premières ont la possibilité de se concentrer sur une palette d’enjeux plus larges et d’accompagner un plus grand nombre de start-ups, tandis que l’équation économique des secondes leur impose un positionnement plus précis et sélectif, afin de générer des bénéfices. La nature publique ou privée des structures influe également sur la manière dont l’accompagnement est perçu par les investisseurs.
Nous avons analysé les 20 structures les plus performantes en fonction du montant moyen des levées et du nombre de levées accompagnées. Elles représentent 39% du total des levées de start-ups incubées réalisées en France, pour un montant cumulé d’environ 1 750 m€.
Il est intéressant de constater que les structures « publiques » (hors universitaires) représentent 35% de ces levées de fonds et que deux d’entre elles occupent les deux premières places (Agoranov et Bpifrance Le Hub, voir schéma ci-dessous). Un succès qui s’explique par le fait que leur présence sur une opération représente un signal très positif pour les investisseurs : leur engagement est un gage de stabilité, dans la mesure où elles ne privilégient pas forcément la rentabilité à court terme, mais prennent aussi en compte le développement économique, le renforcement d’écosystèmes locaux, ou l’appui à des secteurs stratégiques.
Structures ayant accompagné le plus de start-ups vers une levée de fonds
Source : Etude menée sur les levées de fonds référencées par Capital Finance sur la période 31 mars 2017 – 8 avril 2019
Top 3 des structures d’accompagnement performantes en matière de levées de fonds en France
A noter : 4 incubateurs de grandes écoles figurent dans le top 20 (Drahi -X Novation Center, ParisTech Entrepreneurs, Incubateur HEC et ESSEC Ventures). Cela s’explique par le fait que ces structures ont pour objectif de développer et d’appliquer des innovations scientifiques, mais aussi par leurs réseaux étendus d’anciens élèves, notamment parmi les principaux acteurs du financement (fonds d’investissement, banques, business angels, administration).
Structures de capital-risque, structures grand groupe
Pour les structures privées, deux grands types de business plan se démarquent : l’un basé sur l’intégration d’une activité de capital-risque, l’autre organisé autour de liens forts avec un grand groupe.
Dans le premier cas, les structures accompagnent de petites promotions de start-ups à haut potentiel, dans lesquelles elles ont également pris des participations. La conduite de levées ultérieures constitue donc un impératif de rentabilité pour ces acteurs.
Dans le second cas, les structures ont davantage un rôle de veille technologique destinée à alimenter le coeur de métier du groupe auquel elles sont adossées. A travers elles, ce dernier prend une participation souvent minoritaire visant à créer de nouvelles lignes de produits et services en synergie avec son coeur de métier, ou à maîtriser le risque d‘une éventuelle disruption.
Structures généralistes, structures spécialisées
44% des levées de fonds sont le fait de structures généralistes, les autres provenant de structures avec un positionnement sectoriel précis. Les secteurs des technologies de l’information et de la communication (21%), de la santé (8%) et de l’énergie (7%) sont particulièrement représentés. Pour ce qui est des montants moyens levés par secteur, les secteurs de l’alimentaire, de l’énergie, des télécoms et de la chimie rassemblent les montants les plus importants. A noter que la moyenne du secteur de la Foodtech est gonflée par la levée record de 72 millions d’euros réalisée par Wynd2, start-up accompagnée par l’accélérateur spécialisé Food ShakeUpFactory.
Nombre de levées de fonds par secteur d’incubation
Source : Etude menée sur les levées de fonds référencées par Capital Finance sur la période 31 mars 2017 – 8 avril 2019
Structures plus ou moins sélectives
La capacité à générer des levées de fonds n’est pas directement liée au nombre de start-ups accompagnées – alors que l’on aurait pu s’attendre à ce que plus une structure accompagne de start-ups, plus elle réalise de levées in fine.
Si l’on considère les 17 plus grosses structures en termes de levées de fonds réalisées, elles accompagnent en moyenne 64 start-ups (49 si on exclut Wilco qui en a assisté plus de 300). Or, les trois structures les plus « performantes » (Agoranov, BPIfrance le Hub et The Family) ont toutes des promotions de taille inférieure (respectivement 41, 55 et 17 start-ups accompagnées).
Ce constat reflète des degrés variables de sélectivité d’une structure à l’autre. En particulier, une structure de type fonds d’investissement comme The Family va choisir ses projets principalement sur la base de leur capacité future à lever des fonds. Des structures publiques comme Agoranov et la BPI ont des critères de sélection intégrant les perspectives de réalisation à court terme de levées de fonds mais aussi des objectifs plus larges, tels qu’offrir des débouchés commerciaux à des technologies développées dans les laboratoires de recherche publique.
Nombre de start-ups accompagnées et de levées de fonds réalisées par structure
Source : Etude menée sur les levées de fonds référencées par Capital Finance sur la période 31 mars 2017 – 8 avril 2019
D. Les limites des structures d’accompagnement
La croissance des montants investis dans les opérations de capital-risque et la multiplication des structures d’accompagnement dissimulent une situation assez inégale sur le territoire français, ainsi que plusieurs inefficiences auxquelles s’exposent les porteurs de projet.
Tout d’abord, les structures d’accompagnement se sont certes diffusées assez largement sur le territoire ces dernières années (en particulier via le label FrenchTech), mais les levées de fonds restent concentrées en Île-de-France. Les start-ups implantées dans cette région, en 2019, ont concentré 75% des montants collectés en France et 93 des 10 plus importantes levées de fonds. Cela s’explique par le fait que les fonds d’investissement et business angels sont majoritairement localisés à Paris.
De plus, aussi bienveillant que soit l’accompagnement, la levée de fonds peut être perçue comme un risque par des entrepreneurs désireux de conserver le contrôle de la gouvernance.
Enfin, la conduite d’opérations de levées de fonds demeure une épreuve pour les start-ups, qui doivent investir de nombreuses ressources humaines et financières dans des processus à l’issue incertaine, souvent répliqués pour chaque investisseur sans économie d’échelle possible et souvent limités à une cible nationale pour ne pas multiplier les rencontres physiques.
Dans ce contexte, des modes de financement alternatifs ont émergé peu à peu. Il s’agit de solutions de financement participatives (crowd-funding, crowd-lending, crowd-equity), mais aussi de mécanismes reposant sur la technologie des blockchains (Initial Coin Offering, Security Token Offering).
Levées de fonds par région en nombre et en valeur en 2019 en France
Source : Analyses Accuracy et Eldorado
2. LE PHENOMENE DES INITIAL COIN OFFERINGS (ICO), UNE MAUVAISE REPONSE A DE VRAIS PROBLEMES
A. Genèse des ICO
Les années 2017-2018 ont vu l’essor d’un nouveau mode de levée de fonds pour les start-ups : les Initial Coin Offerings (ICO), terme calqué sur celui d’IPO (« Initial Public Offering ») qui désigne une introduction en bourse. Une ICO est l’émission sur le marché primaire d’un actif (token) dont la propriété et les transactions sont enregistrées sur une blockchain4. Les ICO se sont rapidement imposées comme un moyen innovant de lever des fonds pour les entrepreneurs dans le domaine de la Tech.
Dans ce processus, les tokens représentent le droit d’utilisation futur d’un service, dont leur émission assure le financement. Il s’agit en quelque sorte de bons d’achats revendables sur le marché secondaire. Ainsi, les ICO peuvent s’apparenter à du crowdfunding, puisque l’émission vise à financer un service qui n’existe dans la plupart des cas qu’à l’état de projet au moment de la levée.
A l’issue de leur émission les tokens peuvent directement être échangés sur le marché secondaire. Leur valeur est déterminée par la demande pour le service nécessitant ou bénéficiant de leur utilisation. Les investisseurs misent ainsi sur une adoption croissante du service pour maximiser leurs retours sur investissement. En outre, il n’est pas rare pour les porteurs de projet de se réserver une portion des tokens émis afin de bénéficier eux-mêmes du succès rencontré par leur service.
Schéma explicatif du fonctionnement d’une ICO
B. Après avoir semblé supplanter les modes de financement traditionnels, les ICO sont en très net repli
Après la toute première ICO montée en juillet 2013 par le projet Omni, ces opérations se sont multipliées en parallèle d’une forte hausse de la capitalisation du marché des cryptomonnaies, qui constituent le véhicule d’investissement premier de ces opérations.
Entre septembre 2017 et novembre 2019, ce sont plus de 29 milliards de dollars qui ont été levés dans le monde par ce procédé, principalement sur la fin de l’année 2017 et la première moitié de l’année 2018 (entre septembre 2017 et décembre 2017, la capitalisation de ce marché a été multipliée par 4). A noter qu’en France, le nombre d’opérations au cours de la même période a été plus limité, avec seulement 48 ICO et 153,6 millions de dollars collectés5. Cependant, ce montant n’est pas représentatif, dans la mesure où de nombreux entrepreneurs ont choisi d’organiser leur ICO dans d’autres pays6.
Si le succès de ce mode de financement s’explique tout d’abord par un certain nombre de facteurs conjoncturels, tels que la forte hausse de la capitalisation des cryptomonnaies, d’autres facteurs structurels sont à mobiliser pour prendre la pleine mesure de ce phénomène.
Tout d’abord, la relative efficience de ces levées, c’est-à-dire le ratio entre les ressources (humaines et financières) mobilisées par un porteur de projet et les montants collectés. Pour une petite entreprise, une émission de tokens sur le marché primaire est en théorie moins coûteuse qu’une levée de fonds classique et permet néanmoins d’accéder à un nombre d’investisseurs plus important. Quant aux
plus grandes entreprises, une ICO est également bien moins coûteuse pour elles que l’émission de titres financiers réglementés.
Répartition des montants collectés selon les modes de levées en France et dans le monde en 2018 et 2019
Par ailleurs, ce mécanisme présente l’avantage de la sécurité, la blockchain étant par nature non piratable. Enfin, il offre une meilleure liquidité, puisque les titres peuvent facilement s’échanger, contrairement à l’investissement direct dans une start-up qui n’est pas du tout liquide.
La forte croissance des montants collectés par ICO a pu donner l’impression que ces dernières allaient s’imposer comme un mode de financement incontournable de l’innovation. Pourtant, depuis le second semestre 2018, les montants collectés, de même que le nombre d’ICO, sont en nette diminution : 2 Md$ par mois en moyenne entre septembre 2017 et août 2018, contre 0,36 Md$ (soit 5 fois moins) entre septembre 2018 et novembre 2019.
Un tel ralentissement s’explique notamment par la baisse de capitalisation du marché des cryptomonnaies. En effet, la perte de valeur de ces dernières a réduit les fonds à disposition des investisseurs et fragilisé les trésoreries des entreprises ayant conservé les montants levés sous forme de cryptomonnaies. L’exposition démesurée de certains projets aux variations de cours a provoqué de nombreuses faillites, ce qui a d’ailleurs souligné l’absence totale de protection pour les détenteurs de
tokens. La diminution du nombre d’ICO s’explique également par les nombreux schémas de fraude et d’escroquerie qui ont essaimé autour de ce type d’opérations, dont certaines ont été largement médiatisées.
Malgré ce bilan mitigé lié à un engouement passager pour les cryptomonnaies, les ICO ont été et demeurent l’expression d’une défiance envers les acteurs historiques de la levée (conseils, investisseurs traditionnels, mais aussi structures d’accompagnement), de besoins de financement non satisfaits et d’un désir prononcé d’innovation. C’est sur ces éléments que se construit désormais une nouvelle génération de modèles de financement.
Montants collectés par ICO / IEO et capitalisation du marché des cryptomonnaies
A. Initial Exchange Offering : un retour des tiers de confiance ?
Une Initial Exchange Offering (IEO) est une ICO réalisée directement sur une plateforme d’échange de cryptomonnaies (exchange). Dans ce procédé, l’exchange joue le rôle de tiers de confiance. En triant les projets et en réalisant les due diligences adéquates, il garantit aux investisseurs le sérieux du projet et, surtout, son potentiel. En effet, les exchanges7 disposent des compétences nécessaires à l’évaluation des projets et engagent leur réputation en acceptant de les coter – ce qui leur confère la liquidité tant recherchée par les investisseurs.
Cette pratique a pris de l’ampleur depuis la fin de l’année 2018 : alors que le nombre d’ICO est en baisse continue depuis mars 2018, le nombre d’IEO ne cesse de croître depuis janvier 2018.
Cette recentralisation paradoxale – au regard des ambitions décentralisatrices des blockchains – permet de remédier au déficit de confiance des investisseurs. En réhabilitant le principe des ICO, elle montre que ce procédé innovant peut demeurer pertinent pour certains projets et conserve des avantages non négligeables sur les levées de fonds traditionnelles, à condition de remédier aux asymétries d’informations entre porteurs de projets et investisseurs. Elle rappelle que seule une analyse poussée du modèle économique, du marché adressable et de la valeur ajoutée de la technologie blockchain est en mesure de garantir les chances raisonnables de succès d’un projet.
En ce sens, l’expérience des ICO plaide pour une implication croissante de tiers de confiance tels que les conseils, les structures d’accompagnement et, dans le cas des IEO, les exchanges.
Montants collectés par ICO, nombre d’ICO et capitalisation du marché des cryptomonnaies
ICO vs IEO : évolution de la répartition des montants collectés
Les Security Token Offerings (STO) sont des émissions sur le marché primaire de titres financiers représentés par un token sur une blockchain. Loin d’être un simple bon d’achat comme dans le cadre des ICO ou des IEO, les tokens matérialisent ici des droits à des revenus futurs, fixes ou variables suivant leur paramétrage. Les titres financiers étant soumis à des règlementations strictes, les investisseurs disposent de recours potentiels contre des porteurs de projet malintentionnés.
La blockchain n’est ici que l’infrastructure technologique sur laquelle les mouvements de titres sont enregistrés, mais elle ouvre des perspectives plus larges, en termes de digitalisation des titres financiers et au-delà. La prise de participation à hauteur de 5 millions d’euros par l’opérateur boursier Euronext au capital de Tokeny Solutions8, une start-up luxembourgeoise spécialisée dans la « tokenisation9 » des actifs financiers, s’inscrit dans cette dynamique.
En effet, les propriétés des blockchains permettent d’envisager la titrisation à moindre coût de tous types d’actifs, qu’il s’agisse d’oeuvres d’arts, de titres financiers ou d’actifs immobiliers. La liquidité de ces titres sur le marché secondaire n’est pas encore garantie, du fait de l’absence de plateformes d’échanges disposant des licences nécessaires et de volumes suffisants, mais plusieurs dizaines de projets à travers le monde sont en développement dans ce sens.
Exemples de projets de STO en cours dans le monde
La blockchain représente également une opportunité de développer des titres financiers innovants, qui par exemple attribuent aux investisseurs un pourcentage, déterminé à l’avance, d’éléments tels que le résultat opérationnel ou le bénéfice avant impôt. Si ce type d’instruments était déjà envisageable
avant la blockchain, les possibilités d’automatisation offertes par le recours aux smart contracts10 modifient leur équation coût / bénéfice, ce qui permettrait d’intéresser plus largement certains investisseurs, en échange d’une implication moindre dans la gouvernance.
Bien qu’en perte de vitesse, le phénomène des ICO est riche en enseignements pour les structures d’accompagnement, qui l’avaient tout d’abord perçu comme une menace. Révélateur des complexités et des excès de la levée « conventionnelle », il est une opportunité, pour l’écosystème du financement de l’innovation, de se réinventer vers de nouvelles formes hybrides.
Et ce n’est pas le seul moteur. En effet, la digitalisation des activités s’accélère avec de plus en plus de services désormais dispensés à distance : accompagnement, évènementiel, conférences, levées de fonds, etc. Cette modification est révélatrice d’une révolution dans les manières de travailler, conduisant à davantage de structures sans lieu physique et de programmes d’accompagnement hors les murs.
Outre l’adaptation à ce mode de travail novateur, les structures d’accompagnement devront se plier aux nouvelles exigences de marché : améliorer leur capacité à intervenir en région en mobilisant des investisseurs pertinents en dehors des grandes métropoles, ou encore développer leur maîtrise de technologies pointues telles que la blockchain, qui permet de dématérialiser des opérations complexes sans mettre en péril la sécurisation des données.
Entre quête de rentabilité, redéfinition des besoins des porteurs de projet (mobilité, souplesse, transparence), innovation d’usage (financement participatif) et technologique (blockchain) et mutations de leur écosystème (dématérialisation, globalisation, décentralisation), les structures d’accompagnement sont sommées de se réinventer.
Notes
1 Etude Accuracy menée entre le 31 mars 2017 et le 8 avril 2019 sur 650 levées de fonds réalisées par 380 start-ups incubées
2 Wynd opère majoritairement mais pas exclusivement dans la foodtech
3 Analyses Accuracy
4 Une blockchain est une base de données distribuée ne pouvant être falsifiée et modifiable uniquement par incrémentation, pour plus de détails voir le livre : Blockchain – vers de nouvelles chaînes de valeur, M. Della Chiesa, F. Hiault, C. Téqui (Eyrolles, 2019)
5 D’après analyses Accuracy des données CoinSchedule 6 Les Echos, « ICO : les start-up tricolores boudent la France », 06/06/2018
7 Les exchanges sont les plus gros acteurs de cet écosystème naissant ; de pas leur poids ils sont en mesure d’inspirer la confiance des investisseurs
8 Les Echos Investir, « Euronext prend une participation de 23,5% dans la fintech Tokeny Solutions », 01/07/2019 9 La tokenisation décrit le fait de créer une token sur une blockchain matérialisant la propriété d’un élément externe à cette dernière – par exemple des parts d’actifs financiers
10 Un smart contract est une transaction conditionnée et programmée sur une blockchain
A l’heure où l’innovation devient plus que jamais le moteur de toutes les économies, les start-ups sont placées en première ligne en raison de leur structure simple et agile qui leur permet de s’aventurer dans les secteurs les plus prometteurs.
Toutefois, le développement de l’innovation ne peut aboutir sans un écosystème complet et adapté, rassemblant un ensemble d’acteurs (organisations, entreprises, start-ups, universités, investisseurs), qui interagissent et s’associent pour l’émergence de projets innovants.
Cette étude décrit les dynamiques qui façonnent l’écosystème d’innovation marocain, entres stratégies nationales et initiatives privées. Notre cartographie des structures d’accompagnement permet notamment de prendre la mesure d’un enjeu stratégique, pour tout pays cherchant à profiter pleinement de son potentiel de talents et d’entrepreneurs.
En effet, l’innovation constitue un levier décisif pour la croissance et le développement économique d’un pays.
A. Les structures d’accompagnement des porteurs de projets innovants se sont multipliées au Maroc, fruits d’une volonté politique et d’initiatives privées.
B. Néanmoins leur présence sur le territoire marocain demeure inégale et polarisée autour de la région de Casablanca.
C. Les grandes entreprises marocaines contribuent progressivement à l’écosystème d’innovation et commencent à intégrer l’open innovation comme levier de création de valeur.
D. L’innovation d’origine marocaine, mesurée en termes de demandes de dépôts de brevets et de levées de fonds des start-ups, reste en dessous de son potentiel.
1. LES STRUCTURES D’ACCOMPAGNEMENT DE L’INNOVATION AU MAROC QUEL EST LE PAYSAGE DE L’INNOVATION AU MAROC AUJOURD’HUI ?
A. Des structures de plus en plus nombreuses
Les structures d’accompagnement sont constituées de structures physiques et non physiques : (i) incubateurs et accélérateurs, (ii) espaces de coworking, (iii) programmes d’accompagnement et (iv) programmes de financement. D’après nos recherches, il existe 74 structures d’accompagnement actives et en projet.
Parmi ces structures, le Technopark a été pionnier et constitue un cas d’école. Créé en 2001, et fruit d’un partenariat public-privé, les Technoparks sont gérés par le MITC (Moroccan Information Technopark Company), dont les actionnaires fondateurs sont l’Etat marocain (35%), la Caisse de Dépôt et de Gestion (17,5%) et des banques marocaines (47,5%). Le MITC propose des espaces et accompagne les porteurs de projets en les faisant bénéficier de son écosystème privilégié. Le modèle a été dupliqué à Rabat en 2012, Tanger en 2015 et bientôt à Agadir (ouverture prévue en 2021). Le Technopark a accompagné plus de 1 100 entreprises en particulier dans les secteurs TIC 1, Green Tech et de l’industrie culturelle depuis sa création. S’il est communément répandu que les start-ups ont besoin d’un accompagnement financier et spécialisé, la nécessité de les intégrer au sein d’une communauté pour échanger entre elles est primordiale. En effet, la communauté représente une intelligence collective très riche et diverse qui permet aux start-ups de discuter dans le cadre d’espaces de co-working, d’échanger sur les bonnes pratiques et de se constituer un réseau pour se développer.
C’est dans ce sens que de nouvelles structures ont vu le jour au Maroc, proposant des services d’accompagnement, de formation et de mentoring. Ces structures d’accompagnement organisent différents évènements comme des hackathons, c’est-à-dire des événements où des équipes variées (composées de développeurs, mais aussi de chefs de projets) doivent répondre à une problématique stratégique en délivrant un PoC 2 (en général un logiciel ou une application) en un temps très réduit. En décembre 2019, Emerging Business Factory a ainsi organisé le premier « Hackathon de l’eau » à Marrakech ayant pour objectif de faire de l’utilisation de l’eau dans la région un mode de consommation durable et éco-responsable.
D’autres structures d’accompagnement ont mis en place des espaces de co-working pour tous ceux qui veulent se lancer dans l’entrepreneuriat et qui cherchent une communauté de partenaires. New Work Lab, espace dédié au développement des startups marocaines à travers l’organisation de rencontres, de formations et la mise à disposition d’un espace de co-working fondé en 2013 à Casablanca, en est un bon exemple.
Cartographie des structures d’accompagnement des start-ups
B. Une répartition géographique encore inégale
Si les structures d’accompagnement se concentrent majoritairement aux alentours de Casablanca, des dynamiques régionales, fruits d’une forte volonté politique, se dessinent, à travers :
• La duplication du Technopark dans les autres villes du Royaume ;
• Des projets d’aménagement du territoire, tels la cité de l’innovation de la région Souss-Massa, qui prévoit la mise à disposition de laboratoires R&D aux porteurs de projets ou encore le pôle urbain de Mazagan aménagé par l’OCP et l’Etat ;
• Des dispositifs d’accompagnement à envergure nationale, avec par exemple le Réseau Entreprendre Maroc et Injaz Al-Maghrib qui accompagnent les porteurs de projets ou encore le programme de financement Fonds Innov Invest. Toutefois, certaines grandes villes marocaines, telles Fès et Meknès, ont une offre d’accompagnement largement en dessous des besoins d’une population étudiante importante, tels les étudiants de l’Université Euro-Méditerranéenne de Fès (UEMF). Lors de la rentrée 2017, cette université rassemblait déjà plus de 1 300 étudiants et chercheurs 4 présentant un potentiel de talents et d’entrepreneurs à ne pas négliger.
C. Des structures essentiellement généralistes et soutenues par une grande diversité de sponsors
Si une écrasante majorité (75.7%) des structures d’accompagnement sont généralistes, trois spécialisations se démarquent :
• Les TIC, notamment grâce à l’essor des Fintechs collaborant avec des groupes (exemple : StartOn, Fintech Challenge) ;
• Les Green Tech, le Maroc s’étant fixé l’objectif de réduire sa dépendance énergétique et d’investir dans les énergies renouvelables (exemple : social Greentech Bidaya) ;
• L’économie sociale et solidaire, en s’appuyant par exemple sur le sport pour créer un lien entre l’emploi des jeunes et l’esprit entrepreunarial (exemple : TIBU Maroc).
Il est également intéressant de relever que les sponsors des structures d’accompagnement sont diversifiés : 57% des structures d’accompagnement sont soutenues par au moins deux organisations (accompagnement, soutien financier etc.). Par ailleurs, 32% de ces structures proviennent d’un partenariat public-privé. Les initiatives d’accompagnement des entrepreneurs s’inscrivent ainsi dans une démarche d’intelligence collective, de mutualisation des ressources entre acteurs complémentaires, en bref, d’open innovation.
2. UNE IMPLICATION CROISSANTE DE GRANDES ENTREPRISES
COMMENT LES GRANDES ENTREPRISES MAROCAINES SE SAISISSENT-ELLES DU SUJET DE L’INNOVATION ?
A. L’OCP : un poids lourd de l’économie nationale et un modèle global d’innovation
Les entreprises marocaines intègrent progressivement l’open innovation et la numérisation dans leurs organisations et sensibilisent leurs collaborateurs à la culture de l’innovation comme le démontre l’exemple du groupe OCP.
OCP est le leader mondial des phosphates et la première entreprise industrielle marocaine. Le Groupe met notamment en oeuvre un programme d’investissement ambitieux (2008-2027) : le Groupe a pour ambition de doubler ses capacités minières et de tripler ses capacités de transformation.
OCP a ainsi a amorcé plusieurs chantiers afin de dynamiser l’innovation au Maroc et au sein du groupe. En plus de structures d’accompagnement physique, de nombreux programmes ont été mis en place comme par exemple la SeedStars Startup Competition ou le programme d’accélération Impulse en partenariat avec Mass Challenge, comme détaillé ci-dessous.
Le milieu universitaire nous ouvre l’accès à d’innombrables centres de recherche à travers le monde et à l’open innovation […] Quand nous sommes dans l’université, un autre dialogue s’instaure, beaucoup plus productif
Mohamed Soual, chef économiste à OCP.
B. Une implication croissante des banques marocaines
Les banques marocaines ne sont pas en reste. Attijariwafa Bank et BMCE Bank of Africa ont été pionnières dès 2001 en finançant le Technopark Casablanca, et ont été très actives ces cinq dernières années dans la promotion de l’innovation.
Les initiatives des banques marocaines en faveur des entrepreneurs les ont naturellement conduits à structurer et internaliser la démarche d’innovation pour améliorer leurs processus et leurs offres, dans un contexte de numérisation accrue. Une gestion déléguée à un pure player de l’accompagnement est souvent essentielle afin de faciliter la coopération et maximiser la création de valeur entre les parties prenantes, qui peuvent avoir des cultures très différentes, notamment lorsqu’il s’agit de partenariats public-privé. Si l’écosystème autour des start- ups s’est renforcé avec le lancement de plusieurs dispositifs de soutien, d’accompagnement et de financement (comme détaillé ci-contre), le nombre d’entreprises technologiques innovantes, mesurées en termes de brevets d’invention et de levées de fonds, demeure en dessous du potentiel du Maroc, comme détaillé dans les pages suivantes.
Gestion des structures d’accompagnements créées par les entreprises marocaines appartenant au Moroccan All Shares Index (MASI)
3. L’INNOVATION ET SON FINANCEMENT AU MAROC
COMMENT A EVOLUE L’INNOVATION AU MAROC CES QUINZES DERNIERES ANNEES ?
A. Les stratégies d’industrialisation successives ont contribué à élever le niveau global d’innovation
Evaluer de manière exhaustive le caractère innovant d’un pays est un exercice qui contraint à prendre en compte l’environnement institutionnel, les infrastructures, la formation, la R&D, la structure du marché et la création. Le Global Innovation Index 2019 classe le Maroc au 74e rang mondial parmi 126 pays, sur la base de 80 variables allant de la facilité à obtenir un crédit à la protection des intérêts minoritaires dans une entreprise. Cet index distingue aussi les variables d’inputs qui définissent le potentiel d’innovation du pays des variables d’outputs qui mesurent l’innovation effective.
Nos analyses se concentrent sur les deux critères d’outputs nous ayant paru les plus tangibles : le dynamisme de la recherche à travers les demandes de dépôts de brevets (moteur de l’industrie) et les levées de fonds des startups technologiques et numériques, qui témoignent du potentiel de développement économique.
La mise en parallèle de l’évolution de ces variables avec les plans successifs d’industrialisation mis en place par le Ministère de l’Industrie, du Commerce, de l’Economie Verte et Numérique depuis le milieu des années 2000 fait apparaître une corrélation. Comme le montre la figure ci-après, grâce aux politiques industrielles, ainsi qu’à la stabilité dont bénéficie le Royaume et sa proximité avec l’Union Européenne, le Maroc s’est imposé comme une destination privilégiée pour les investisseurs étrangers.
Depuis 2005, trois grandes stratégies d’industrialisation se sont succédées avec un effet considérable sur l’évolution du nombre de demandes de dépôts de brevets. Néanmoins, ces effets semblent différenciés selon la nature des acteurs. En effet, les demandes déposées par des non-résidents ont triplé entre 2014 et 2018 tandis que celles réalisées par des résidents marocains ont presque été divisées par deux sur la même période.
Le dynamisme de la recherche nationale semble en perte de vitesse, et reste majoritairement le fait des universités (58% en 2018), lorsque les entreprises marocaines n’ont déposé que 9% des demandes de brevets d’invention.
Dans le même temps, la forte augmentation des demandes d’origine étrangère témoigne d’une attractivité renforcée et s’explique par deux facteurs. En premier lieu, la présence d’acteurs étrangers s’est intensifiée au Maroc et ce dans diverses filières comme l’automobile et l’aéronautique suite au Plan d’Accélération Industrielle. En second lieu, la mise en place d’un nouveau mode de dépôt des brevets par l’Office Européen des Brevets, grâce à un partenariat en 2015 avec le Ministère marocain de l’Industrie, du Commerce, de l’Économie Verte et Numérique, permet désormais aux demandeurs de dépôt de brevet au sein de l’Union Européenne de demander également une protection pour leur brevet dans le Royaume. Ainsi, les Etats-Unis (20%) et les pays européens, France et Allemagne (8% chacun) en tête, sont les plus représentés parmi les pays d’origine des demandeurs de brevets.
Demandes de dépôts de brevets d’invention au Maroc (2005 – 2018) et stratégies d’industrialisation
Note : Nous avons pris le parti d’étudier l’évolution du nombre de dépôts de brevets en raison de la facilité d’accès à ces données, s’ils permettent d’avoir une vision des effets des politiques industrielles successives ils ne permettent pas de porter un jugement sur l’ensemble de leurs effets.
B. Mais les montants levés par les start-ups restent modestes par comparaison à d’autres pays de la région
Enfin, les levées de fonds constituent un autre indicateur du dynamisme du secteur de l’innovation. S’il est complexe d’établir un lien de causalité entre ces dernières et la pratique du dépôt de brevets, ces deux phénomènes constituent des indicateurs complémentaires du dynamisme de l’innovation dans les pays concernés.
Au-delà de l’innovation, la diffusion de la pratique des levées de fonds traduit notamment la participation croissante des acteurs privés, nationaux et internationaux, au financement de l’innovation. En ce sens, de faibles montants peuvent cacher la prédominance du financement de l’innovation par des capitaux publics ou son internalisation par les entreprises déjà existantes.
En termes de levées de fonds, le Maroc figure à la 12e place africaine en 2019 avec 7 millions USD levés par les start-ups technologiques et numériques (contre 3 millions USD en 2018, 15e place) 5. Nous avons rassemblé des données permettant de comparer les situations de l’Algérie, de la Tunisie, du Nigéria, du Kenya et de l’Egypte avec celle du Maroc. Nous avons mis les montants collectés en perspective des PIB respectifs de ces pays. Enfin, pour tous ces pays à l’exception de l’Algérie – pour lequel nous ne disposons pas de données suffisantes – nous avons étudié l’évolution des levées entre 2018 et 2019.
De manière générale, nous constatons une croissance des levées de fonds sur ces deux années. Ainsi, le Maroc, le Kenya, le Nigeria, l’Egypte et la Tunisie font tous face à une hausse significative des montants récoltés. Concernant les montants en eux-mêmes, le Kenya et le Nigeria se distinguent nettement des autres pays. Si dans le cas du Nigeria cela peut être notamment expliqué par la taille de l’économie du pays (368 milliards USD en 2018), le cas du Kenya est différent (87 milliards USD en 2018). A titre de comparaison les montants levés au Maroc paraissent faibles rapportés au PIB du pays (120 milliards de dollars en 2018). Au-delà de la différence de structure des économies considérées, ce résultat peut s’expliquer de différentes manières : moindre accès aux financements, conduite de ces dernières dans d’autres pays, existence de modes de financement alternatif, ou encore moindre diffusion de la pratique des levées. Cette dernière explication semble d’autant plus pertinente qu’il existe une réelle différence entre l’Afrique francophone (Maroc, Algérie, Tunisie) et anglophone (Kenya, Nigeria, Egypte) comme le montre les chiffres de notre étude.
Evolution des levées de fonds entre 2018 et 2019
Source : Partech (levées de fonds) et la banque mondiale (PIB)
Si ces chiffres peuvent être utilisés à l’échelle macroéconomique pour mesurer des tendances telle que l’ouverture de certaines économies aux capitaux extérieurs, ils révèlent aussi l’état d’appropriation de certaines bonnes pratiques par les acteurs locaux. Dans ce contexte, les politiques publiques peuvent jouer le rôle de facilitateur dans une approche « top-down ». Néanmoins les réalités locales ne oivent pas être ignorées. En effet, au-delà des politiques publiques, ce sont les jeux d’acteurs et la qualité des interactions qui permettent la co-construction de programmes innovants et déterminent le dynamisme d’un secteur. L’exemple de l’OCP abordé dans la partie 2 est à e titre évocateur et souligne l’importance d’impliquer l’ensemble des acteurs dans la mise en place d’un écosystème d’innovation.
Ainsi, la diffusion des meilleures pratiques inspirées des pays étrangers pourrait renforcer les écosystèmes locaux. De telles mesures seraient de nature à permettre la réalisation du potentiel d’innovation de pays comme le Maroc, en favorisant l’essor des start-ups.
1 Technologies de l’information et de la communication
3 Rapport entre le nombre de structures d’accompagnement existantes dans la région et l’ensemble des structures existantes au Maroc
4 L’économiste.com, Edition n°5032, 2017, « Fès-UEMF : Une université à la fine pointe de la technologie »
5Partech, 2019 Africa Tech Venture Capital report, page 13 (paru en Janvier 2020)
Note méthodologique : Partech, un fonds de capital-risque, publie annuellement le classement des levées de fonds en Afrique.
Les start-ups qui sont prises en compte remplissent les critères suivants : (i) Les start-ups sont Tech et / ou numériques, (ii) leur marché est l’Afrique (en opérations et en revenus) et (iii) la levée est supérieure à 200 000 USD
Le rythme effréné de l’innovation, le risque de disruption, la volatilité des clients et la pénurie des talents sont autant de facteurs qui doivent pousser les grands groupes à innover non seulement rapidement, mais surtout efficacement. Cet impératif passe notamment par un rapprochement entre grandes entreprises et start-ups.
Néanmoins, il ne suffit pas de vouloir accompagner des start-ups pour que la collaboration fonctionne ! Si l’innovation constitue clairement une passerelle solide qui relie le monde des grands groupes et celui des jeunes entreprises, elle peut être fragilisée en raison d’objectifs stratégiques et modes de fonctionnement structurellement différents.
Notre cartographie des structures d’accompagnement en France permet de comprendre les principales tendances de l’écosystème d’innovation sur le territoire français, ainsi que les leviers de performance d’une démarche d’accompagnement de start-ups :
A. Les grands groupes français sont activement engagés dans l’accompagnement de start-ups. C’est le cas de 90% des entreprises du CAC 40, qui ont créé leur propre structure, participent à des dispositifs multi-entreprises, ou se sont associées à une structure existante.
B. Initialement centrée autour de la région parisienne, l’innovation française se développe très rapidement en région, les grandes métropoles abritant de plus en plus de structures d’accompagnement.
C. La tendance est à des structures spécialisées dans le ou les secteurs d’activité du donneur d’ordre : c’est un facteur de différenciation et de performance, et cela permet au grand groupe d’injecter plus facilement la valeur créée dans sa propre activité.
D. Cinq axes de réflexion permettent de définir le format d’accompagnement le plus adapté aux objectifs stratégiques du grand groupe : niveau de maturité des start-ups et, en matière de solutions offertes, hébergement, moyens techniques, moyens humains, moyens financiers.
E. Un tiers expert est indispensable pour mettre en œuvre la stratégie d’accompagnement, mais aussi sa gouvernance. Il s’agit en effet de fluidifier la coopération et maximiser la création de valeur entre des acteurs aux cultures extrêmement différentes !
INTRODUCTION
Mariage d’amour ou de raison, l’union des grands groupes avec de jeunes pousses est aujourd’hui incontournable pour sécuriser des leviers de croissance dans un monde en mutation constante.
Mais comment s’y retrouver parmi la multitude de formats d’accompagnement possibles ? De l’incubateur à l’accélérateur, en passant par les espaces de coworking, pépinières d’entreprises, fablabs et corporate venture capital, sur quels critères un groupe doit-il choisir la bonne structure d’accompagnement pour répondre à ses objectifs stratégiques ? Faut-il se spécialiser dans son propre domaine d’activité ou rester généraliste, prêt à capter la valeur, d’où qu’elle provienne ?
Accuracy a réalisé une cartographie des structures d’accompagnement françaises, afin de vous donner les clés nécessaires à une bonne compréhension des écosystèmes en place. Cette vision vous permettra de choisir avec discernement le tiers de confiance qui mettra son expertise à disposition pour vous accompagner dans une démarche qui soit réellement productive et rentable pour votre organisation.
1. L’INNOVATION FAIT SA REVOLUTION !
COMMENT EN TIRER PROFIT POUR CREER DE LA VALEUR ?
A. De l’absorption à l’accompagnement
Dans un environnement toujours plus incertain, l’innovation ne se cantonne plus aux investissements de R&D en interne, à la gestion de portefeuilles de brevets et à l’intégration de technologies issues de la sous-traitance. Elle est désormais intimement liée à la prise de risque, à travers l’investissement dans des projets audacieux : pour rester dans la course, il s’agit de miser sur un (plus ou moins jeune) entrepreneur disruptif.
La plupart des grandes entreprises ont d’abord adopté une stratégie d’absorption, parfois agressive et déstabilisante pour les entrepreneurs, et souvent inefficace du point de vue de l’innovation. Les échecs et l’apparition de nouveaux outils d’open innovation ont cependant impulsé de nouvelles pratiques. Aujourd’hui, 90% des grands groupes privilégient le rapprochement avec des structures d’accompagnement de start-ups, soit en créant la leur, soit à travers une gestion partagée ou déléguée.
Gestion des structures d’accompagnement dans lesquelles investissent les entreprises du CAC 40
Par exemple, le groupe Vinci a créé une structure en propre, baptisée « Léonard » qui permet entre autres de stimuler l’intrapreneuriat. Le lieu est à la fois incubateur de start-ups, espace de coworking et point de rencontre des acteurs de la transformation des villes et des territoires. Quant à Airbus, il a signé un partenariat avec l’incubateur Centrale Audencia ENSA Nantes. Outre les services offerts par l’incubateur lui-même, les collaborateurs ont accès à un espace dédié (showroom technique et espace de coworking) pouvant héberger leurs projets intrapreneuriaux.
D’autres entreprises ont préféré solliciter un tiers expert pour mettre en place l’accompagnement. Par exemple, AstraZeneca a sollicité un pure player, Interfaces, pour créer, puis gérer, son programme « Realize » qui vise à innover en matière de parcours patient, de data management et d’innovation scientifique dans le domaine de l’oncologie.
B. Un maillage territorial de plus en plus équilibré
Paris et le désert français ? Pas si sûr… Sans surprise, la capitale est le centre névralgique de l’innovation française : elle héberge 26% des structures existantes, dont les plus performantes et les plus médiatisées. Mais les autres régions de l’Hexagone ne sont pas en reste. Les grandes métropoles de régions se donnent les moyens de peser elles aussi dans la course à l’innovation.
L’écosystème français montre en effet un maillage de plus en plus complet des structures d’accompagnement. Plus de 700 communes en hébergent au moins une, et toutes les régions voient leur nombre de structures augmenter.
Répartition des structures d’accompagnement en France
Notre analyse chiffrée permet de dresser un état des lieux et de prévoir la dynamique à venir de chaque région. L’Ile-de-France affiche un écosystème d’accompagnement de l’innovation déjà relativement mature, tandis que les autres régions, même déjà bien développées comme celles autour de Bordeaux et Toulouse, continuent de montrer de fortes perspectives de croissance.
En somme, l’écosystème hexagonal de l’innovation se calque assez logiquement sur le dynamisme économique des différents territoires, et semble former une Sun Belt à la française, qui partirait de Rennes jusqu’à la région niçoise, en passant par Bordeaux, Toulouse et Montpellier.
C. Des écosystèmes d’innovation de plus en plus spécialisés par secteur
Dans cette régionalisation de l’innovation, certains territoires ont choisi de s’appuyer sur leur histoire économique pour créer des filières spécialisées d’un point de vue sectoriel. Généraliste ou spécialiste ? La plupart des grands groupes ont eux aussi eu cet arbitrage à faire. Pas de figure imposée, chacun a adopté la stratégie qui lui paraissait la plus pertinente en fonction de ses impératifs stratégiques et économiques.
Cependant, le fait est que la spécialisation gagne du terrain. Les plateformes thématiques occupent désormais une part importante des structures d’accompagnement en France. D’une part parce que la valeur ajoutée de l’accompagnement peut s’en trouver décuplée, et d’autre part parce que l’entreprise recherche généralement des retombées dans son domaine d’activité. Par ailleurs, la spécialisation est une manière de faire face à la concurrence induite par l’augmentation du nombre de structures d’accompagnement, ces dernières années.
L’évolution du secteur bancaire illustre parfaitement cette mutation. Depuis 2014, les « Village by CA » du Crédit Agricole ont essaimé un peu partout en France – en ligne avec la présence de ses caisses régionales, et indépendamment du secteur d’application – dans l’objectif de soutenir les entrepreneurs avec de l’accompagnement, un réseau de partenaires et du mentoring des collaborateurs de la banque afin qu’ils deviennent un jour des fournisseurs ou des clients. Toutes les autres grandes banques ont suivi cette démarche d’open innovation et décidé de créer leur structure d’accompagnement. Par exemple, « Plateforme 58 » par la Banque Postale, est active dans la banque et l’assurance ainsi que les technologies financières, mais aussi la santé, l’éducation et les services. Quant à BNP Paribas, avec son programme d’accélération « Bivwak! » (en plus de « WAI »), HSBC et son « Lab innovation » ou Société Générale avec « Swave », elles se concentrent sur des innovations applicables aux métiers de la banque, accompagnant fintechs et assurtechs.
Dans cette tendance à la spécialisation, certains secteurs semblent plus attractifs que d’autres. Le graphique ci-après montre les domaines qui sont sur-représentés dans l’écosystème d’innovation par rapport à leur taille de marché. Les secteurs Agritech, Fintech, Greentech, Biotech, comme les secteurs médias et artistiques, ont beaucoup investit dans l’innovation et devraient récolter le fruit de leurs efforts d’investissement d’ici quelques années par une augmentation de leurs chiffres d’affaires. D’autres ne sont pas à leur plein potentiel et devraient voir leur investissement augmenter comme les secteurs ConTech, PropTech, EdTech, Aéronautique & spatiale ou la mobilité et logistiques urbaines, et vont ainsi tirer l’innovation des prochaines années. D’où l’intérêt de se positionner dès maintenant pour sécuriser la création de valeur de demain !
Structures d’accompagnement spécialisées vs CA par secteurs d’activité INSEE
2. COMMENT CHOISIR SON FORMAT D’ACCOMPAGNEMENT DE START-UPS, ET MAXIMISER LE RETOUR SUR INVESTISSEMENT ?
A. Quel type de structure pour quels objectifs stratégiques ?
Si 90% des entreprises du CAC40 ont fait le choix d’investir dans au moins une structure d’accompagnement de start-ups, le format retenu n’est pas toujours adapté pour atteindre leurs objectifs stratégiques.
Il existe de nombreux types de structures d’accompagnement. Les services proposés sont variés et vont du simple hébergement, à la mise à disposition de machines-outils pour le prototypage, l’accès à du mentorat ou des programmes d’accélération sur-mesure, mais également l’organisation d’événements networking, ainsi que l’aide au financement. Comment déterminer le format le plus adapté au besoin et aux objectifs stratégiques d’un grand groupe ?
Bien évidemment, il faut commencer par clarifier ces objectifs, qui sous-tendent la logique d’investissement du donneur d’ordre. L’ambition est-elle d’obtenir un retour sur investissement rapide ? De participer à l’aménagement d’un territoire afin de le dynamiser ? De mener une veille technologique afin d’intégrer le plus rapidement possible la technologie développée par la start-up ? De répondre à des enjeux de ressources humaines à travers l’intrapreneuriat, le recrutement de nouveaux talents, la marque employeur ou la diffusion de nouveaux modes de travail ?
Ces objectifs vont permettre de définir le type de start-up visé (notamment en matière de maturité) ainsi que les besoins associés (hébergement, moyens techniques, moyens humains, moyens financiers). C’est donc la pondération relative de ces cinq éléments qui dessinera la structure d’accompagnement la plus pertinente, au regard à la fois des priorités stratégiques du grand groupe et des besoins réels de la start-up.
La cartographie ci-après présente en effet les différents écosystèmes d’accompagnement qui existent dans le paysage français, en fonction du poids relatif de chacun de ces cinq critères.
Cartographie des principales structures d’accompagnement
Par exemple, les incubateurs visant essentiellement des objectifs de communication, d’enjeux RH et de captation technologique, l’offre associée comprend surtout de l’hébergement et des moyens humains (coaching, mentorat, conseil…) et s’adresse plutôt à des jeunes pousses. Autre exemple, les fablabs ont moins l’ambition de s’orienter vers la communication et davantage vers le développement des talents, la captation technologique et l’aménagement du territoire, c’est pourquoi on y retrouve des projets plus matures (souvent en phase de prototypage), auxquels le donneur d’ordre fournit des moyens techniques importants.
B. L’épineuse question de la gouvernance : un tiers de confiance pour pérenniser les alliances
Une fois la structure identifiée et pensée, la différence – comme souvent – réside dans l’exécution.
Tout d’abord, pour attirer les startups les plus prometteuses, les groupes doivent s’assurer d’apporter une promesse différenciante. C’est ainsi que Unibail-Rodamco-Westfield leur offre la possibilité de tester leurs innovations et business models dans ses centres commerciaux, tandis que la communication très active autour du dispositif EDF Pulse offre une forte notoriété !
Ensuite, l’accompagnement de start-ups est un projet d’investissement comme un autre et, à ce titre, requiert un suivi rigoureux d’indicateurs préalablement définis. Ce pilotage de la performance, qu’il s’agisse de partenariats stratégiques, de prises de participations ou de programmes d’accompagnement, pose la délicate question du degré d’indépendance nécessaire à l’innovation. Comment mettre en place une gouvernance qui permette d’accompagner sans étouffer ? Adaptation des processus internes pour ne pas entraver le développement de la start-up par trop de rigidité, implication du top management pour renforcer la légitimité du programme en interne, communication régulière mais non intrusive… Autant de facteurs de succès dont la mise en œuvre peut nécessiter la présence d’un tiers de confiance.
Cet expert peut contribuer à construire sur-mesure le programme d’accompagnement, et à le superviser une fois mis en place, notamment dans le cas de structures multi-entreprises telles que « Plant 4.0 », qui rassemble Total, Vinci Energies, Solvay, Eiffage, Orano et Air Liquide.
Ce tiers de confiance doit comprendre les avantages et inconvénients de chaque type de structure afin de créer, sur-mesure, celle qui réponde effectivement à vos enjeux stratégiques d’innovation. Mais surtout, il doit être un véritable pont entre le grand groupe et la start-up accompagnée : en effet, ces acteurs ont chacun des objectifs stratégiques différents, qui convergent cependant sur le terrain de l’innovation. Accuracy intervient alors pour orchestrer, coordonner et optimiser leur coopération dans cet « espace commun ».
1 Rapport entre le nombre de structures d’accompagnement existantes dans la région et l’ensemble des structures existantes en France.
2 Rapport entre le nombre de projets d’ouvertures de structures d’accompagnement et les structures d’accompagnement déjà existante (au sein de la région).
3 Part du chiffre d’affaires INSEE par branche sur le chiffre d’affaires total 2016 français.
4 Nombre de structures d’accompagnement par spécialisation sur le total des structures d’accompagnement.
Sources :
– Base de données propriétaire Accuracy – décembre 2019
– Etude David avec Goliath, L’alliance des jeunes et des grandes entreprises – 2018
Accuracy annonce la nomination de trois nouveaux associés. Ces promotions s’effectuent dans un contexte de croissance continue d’Accuracy depuis sa création il y a quinze ans. Aujourd’hui, Accuracy est implanté dans treize pays, compte 450 professionnels et 50 associés.
Accuracy a été mandaté par Cobepa pour réaliser des travaux de due diligence croisés sur Sparflex et Enoplastic dans le cadre du rapprochement des deux groupes.
Les électeurs britanniques se sont prononcés il y a désormais plus de trois ans, en juin 2016, en faveur de la sortie du Royaume-Uni de l’Union européenne. Depuis, les responsables politiques européens et britanniques cherchent, non sans difficultés, le chemin qui permettra de respecter le suffrage populaire tout en préservant les économies et sociétés des deux partenaires. Ces difficultés s’expliquent par le fort degré d’intégration de deux économies, après plusieurs décennies d’approfondissement du marché intérieur européen.
Il est possible d’analyser les liens économiques qui unissent les deux partenaires à travers quatre dimensions, qui correspondent aux quatre libertés garanties par l’appartenance au marché unique européen : la libre circulation des biens, services, personnes et capitaux. L’Accuracy Brexit Index combine ces quatre dimensions en un unique indice agrégé, dont l’évolution permet de suivre dans le temps le processus d’intégration/désintégration des économies britanniques et européennes.
Sur cette base, cinq grandes tendances se dégagent :
– Alors que le Brexit n’est encore qu’un état futur vers lequel se dirige le Royaume-Uni, les relations avec l’Union européenne, telles que mesurées par l’Accuracy Brexit Index, se sont d’ores et déjà dégradées de 12% ;
– Le vote de 2016, par le contexte d’incertitude qu’il a provoqué, a pesé sur le degré d’intégration des deux économies, affectant principalement les flux d’investissement (baisse de l’indice de 13%) et migratoires (baisse de l’indice de 25%) ;
– L’analyse détaillée des différents types de flux met en exergue deux dynamiques distinctes. D’une part, les flux de capitaux et de personnes sont principalement déterminés par les anticipations des agents et le niveau de prévisibilité de la politique économique : l’impact psychologique du référendum de 2016 et le contexte d’incertitude s’est déjà traduit par une baisse des échanges. D’autre part, les flux de biens et services reposent sur des arbitrages coûts à plus court terme : l’absence de modification des conditions d’échange avant la date effective du Brexit a permis de maintenir à ce stade une certaine résilience des relations commerciales ;
– On observe d’ores et déjà un rééquilibrage des flux migratoires vers le Royaume-Uni, la population asiatique se substituant aux flux en provenance de l’Union européenne. Cette tendance devrait se poursuivre à long terme. Cela s’explique par le fort besoin de main d’œuvre de certains secteurs de l’économie britannique. La promesse des Brexiters de diminuer l’immigration européenne a donc été tenue avant même l’entrée en vigueur du Brexit. Toutefois, les migrants européens ont été remplacés par des migrants asiatiques, si bien que le nombre total de migrants entrant au Royaume-Uni est resté relativement stable ;
– Il est probable d’assister à long terme, une fois le Brexit effectif, à une inversion des effets constatés à court terme dans le sillage du référendum de 2016 : les échanges de biens et services devraient structurellement se réduire, alors que la dissipation de l’incertitude entourant les conditions de sortie pourrait relâcher la contrainte sur les investissements. Ces derniers ne retrouveront cependant probablement pas leur dynamique pré-Brexit. Les flux migratoires en provenance de l’Union dépendront quant à eux des nouvelles conditions d’entrée, et ne retrouveront vraisemblablement pas leurs niveaux historiques.
Après avoir ouvert un bureau à Hong Kong en janvier 2019, après ceux de Singapour
en 2016, Dubaï en 2017, et Casablanca et 2018, Accuracy confie la direction de son
implantation à Pékin à Frédéric Recordon.
Jean-Michel Blanquer, Moussa Camara et Annette Roux lauréats du Grand Prix de l’Economie 2018
Les trois lauréats du Grand Prix de l’Economie 2018 remis par « Les Echos » (en partenariat avec Accuracy et le cabinet Darrois Villey Maillot Brochier) ont reçu mardi, à Paris, leur prix des mains du président du jury Henri de Castries. Le ministre de l’Education nationale a été distingué dans la catégorie Politique et Economie. Annette Roux, présidente de Bénéteau, a été choisie dans la catégorie Business tandis que Moussa Camara, le fondateur de l’association Les Déterminés, a été lauréat dans la catégorie Espoir pour son soutien à la création d’entreprise.
Accuracy a réalisé la Vendor Due Diligence pour le compte de Green Yellow (filiale du groupe Casino) dans le cadre de la prise de participation minoritaire de Tikehau Capital et BPI France.
Accuracy a réalisé la vendor due diligence pour le compte de Unibail-Rodamco Westfield dans le cadre de la cession de 4 de ses centres commerciaux en Espagne Los Arcos, Bahía Sur, el Faro et Vallsur.
La banque de détail subit une baisse de sa rentabilité depuis dix ans
Sous pression depuis de nombreuses années, le métier de la banque de détail a connu une forte dégradation de sa rentabilité. De 17% en moyenne pour les banques françaises en 2000, celle-ci a fortement chuté après 2008 pour se stabiliser autour de 8 à 9% depuis quelques exercices. Le price to book est à l’avenant, avec des valeurs autour de 0,5 en moyenne, et une fourchette allant de 0,3 à 0,7 en Europe.
Cette détérioration a de fait banalisé le secteur bancaire par rapport à bien d’autres. Son ROE est aujourd’hui inférieur à celui de secteurs tels que les télécoms ou les biens de consommation, sans parler de la santé, nouvel eldorado des investisseurs. Quant au price to book, celui du secteur bancaire est l’un des pires tous secteurs confondus après avoir longtemps caracolé en tête.
L’une des causes de cette banalisation réside dans l’anémie de la marge d’intérêts. Comparée à celle de 2009 sur l’ensemble des banques françaises, celle-ci a chuté de 10% en dix ans, alors même que les encours ont, au cours de cette période, augmenté de plus de 10%. Cette course aux volumes et aux encours est néanmoins désormais bien plus difficile à mener du fait de son coût en RWA, et donc en fonds propres.
Dans ce contexte, les banques françaises sont toutefois parvenues à afficher des résultats plutôt stables en 2018. Le PNB global de la banque de détail des six principales banques de la Place est stable par rapport à 2017, autour de 60 milliards d’euros. Quant au résultat net de ce même métier, il est lui aussi resté stable à environ 18 milliards d’euros, malgré quelques légères variations d’un établissement à l’autre.
Cette stabilité ne saurait cependant masquer l’ampleur des défis qui vont toucher le secteur dans les années à venir, après pourtant déjà dix années de vaches maigres. Il est possible d’en compter au moins cinq, quatre appartenant à la sphère financière et réglementaire, et un à la sphère commerciale, probablement la plus dangereuse à long terme. Conjugués ensemble, ces défis peuvent entamer les ROE de 2,5 points supplémentaires d’ici 2025.
Quatre défis affectent la sphère financière et réglementaire
Le premier défi est d’ordre nucléaire pour le métier. Il s’agit, naturellement, du niveau des taux. La banque de détail joue un rôle majeur dans l’économie, en assurant la fonction fondamentale de transformation de ressources à court terme, les dépôts, en ressources à long terme, les prêts immobiliers et aux entreprises notamment. L’ALM est cœur de cette transformation, qui nécessite une courbe des taux croissante, avec idéalement une pente de 2%.
Or, la politique monétaire mise en place après la crise de Lehman Brothers a conduit à une double baisse des taux : les courts dans un premier temps, par l’abaissement des taux directeurs, et les longs dans un deuxième, par les programmes de quantitative easing. La pente en Europe est progressivement devenue quasi nulle. Or, gagner de l’argent avec une pente nulle est un défi aux lois fondamentales du métier, qui, de fait, se trouve dans une situation inédite et dangereuse.
Le deuxième défi concerne les fonds propres. Entre 2005 et 2018, les banques françaises dans leur ensemble les ont plus que doublé sous l’effet de Bâle 3. Ils représentaient fin 2018 près de 300 milliards d’euros contre 130 en 2005. Mais après Bâle 3 voici que Bâle 4 s’annonce. L’impact sera certes beaucoup moins élevé que celui évoqué précédemment, mais cette hausse pourrait encore amputer le ROE de quelques précieux dixièmes de point.
Troisième défi, conjoncturel cette fois : le coût du risque. Tous métiers confondus, il est passé de 0,1% des encours en 2005 à près de 1,3% en 2009, avant de retrouver progressivement des niveaux d’avant crise, autour de 0,3% en 2018. Cependant, si la conjoncture devait se dégrader, la courbe pourrait à nouveau s’inverser. Chaque dixième de point de coût du risque en plus représente deux milliards d’euros pour les banques françaises. Ce n’est pas négligeable.
Dernier défi de la sphère financière et réglementaire, en théorie aléatoire, mais au final plutôt structurel depuis une dizaine d’années : les amendes. Depuis 2007, les régulateurs européens et américains ont infligé 230 milliards d’amendes aux banques internationales, dont les subprimes ont représenté près de 70%. On peut donc penser que le pire est passé, mais la fraude et le blanchiment pourraient bien prendre le relai des subprimes et poursuivre la saignée en cas de manquements.
Au final, ces quatre défis pourraient amputer le ROE des banques françaises de presque deux points de ROE supplémentaires, ramenant le secteur à des niveaux extrêmement bas à un horizon de cinq ans. Au-delà de la performance en elle-même, c’est aussi un handicap au moment où il faudrait investir massivement pour répondre au défi suivant, celui du fonds de commerce et du développement.
Le défi commercial constitue la menace principale sur le long terme
Ces quatre défis ne constituent pourtant pas l’essentiel des menaces qui affectent le secteur. La sphère commerciale n’est en effet pas exemptée de difficultés, avec un renforcement constant de l’intensité concurrentielle liée à trois facteurs : l’abaissement des barrières à l’entrée, la transformation des usages et la révolution technologique en cours. De nouveaux acteurs en profitent, les néobanques, qui menacent ainsi les banques traditionnelles.
Si l’on refait un peu l’histoire des néobanques depuis 30 ans, on peut considérer qu’il y a eu deux phases. La première a vu des distributeurs, comme Carrefour et Casino, et des assureurs, comme Axa et Allianz, étendre leurs offres à des services bancaires, dans une logique de fidélisation de la clientèle notamment. En réponse, les banques traditionnelles ont le plus souvent créé des banques en ligne, dans une logique de rétention.
Depuis les années 2010, le contexte a changé, et de nouvelles catégories d’acteurs ont tenté de pénétrer le marché, avec des modèles relativement opposés. Les premiers sont des acteurs tels que Revolut ou N26, qui tentent de créer ex nihilo des banques low cost mais avec une offre complète, en nouant notamment des partenariats. Ces acteurs sont dans une course de vitesse afin d’atteindre une taille critique.
Les deuxièmes nouveaux entrants sont des acteurs des nouvelles technologies, qui entrent par la porte des services, les paiements notamment, et ne cherchent pas à imposer d’emblée une gamme complète de services. Il peut ici s’agir d’Apple Card ou d’Apple Pay, mais aussi d’Amazon dans l’assurance par exemple. Ces acteurs participent ainsi au mitage progressif des revenus des banques traditionnelles.
Ce phénomène de mitage ne cesse de prendre de l’ampleur, sous l’effet de l’arrivée chaque année d’environ 300.000 clients dans les néobanques. Au départ, le PNB par client y est très inférieur à celui d’une banque traditionnelle, le client n’ouvrant souvent qu’un compte secondaire. Mais avec le temps, et la complétude progressive des gammes de produits, l’équipement s’accroît et le compte peut basculer en principal.
Les néobanques imposent de nouveaux standards en matière de qualité, de deux façons. D’abord, par des taux de satisfaction élevée sur les applications digitales. Certaines banques traditionnelles ont néanmoins déjà réagi en procédant à un upgrade significatif de leurs applications. Les néobanques ont ensuite imposé l’ouverture de compte immédiate, en quelques minutes, assez loin des standards traditionnels.
Néanmoins, malgré des succès commerciaux parfois indéniables, aucune néobanque n’est parvenue à trouver le chemin de la rentabilité, l’agressivité des offres de bienvenue étant souvent un frein à celle-ci.
De ce fait, le modèle des banques traditionnelles peut paraître à court terme encore partiellement protégé
Usuellement, la banque de détail est présentée sous la forme de deux univers complémentaires : le premier, non bilantiel, comprend les services relatifs aux paiements et à la banque au quotidien ; le deuxième, bilantiel, recouvre l’épargne, le crédit et l’assurance. Depuis quelques années, un troisième univers a émergé chez quelques acteurs, sous la forme de services de proximité complémentaires, tels que la téléphonie ou la domotique.
Les barrières à l’entrée des deux univers principaux ont globalement baissé ces dernières années, mais de façon non homogène. Concernant l’univers non bilantiel, elles ont fait l’objet d’un double abaissement, à la fois réglementaire (DSP2, open banking, RGPD…) et technologique (progrès du digital, intelligence artificielle). L’univers bilantiel est mieux protégé, via les réglementations multiples sur les fonds propres et la liquidité, mais subit malheureusement le fléau de l’absence de pente lié à l’aplatissement de la courbe des taux.
Dans ce contexte, le risque pour les banques traditionnelles est de devenir simplement le bilan d’autres acteurs qui capteraient la relation client. Les banques traditionnelles ont l’avantage du savoir-faire et de l’existence d’un réseau de distribution, mais elles sont en général moins en pointe sur l’expérience client et la technologie par rapport aux banques en ligne et plus encore aux fintech.
Néanmoins, le réseau physique est un vrai avantage et facteur différenciant fort, pour au moins trois raisons. Il est d’abord vecteur de proximité dans un contexte de redécouverte du centre-ville depuis quelques années. Il facilite également le contact humain, permettant un vrai dialogue avec le consommateur et l’apport de conseils sur-mesure. Enfin, le passage en magasin a un vrai sens dans une période du tout numérique.
D’ailleurs, le numérique ne répond pas à 100% des besoins relatifs aux services financiers. L’univers le plus menacé est bien sûr celui de la banque au quotidien et des paiements, très sensibles à la vitesse et au prix, deux facteurs bien servis par le digital. En revanche, l’univers bilantiel est moins vulnérable, et la possibilité de rencontrer un conseiller demeure un avantage dans l’octroi d’un crédit immobilier ou le conseil sur de l’épargne.
Les banques traditionnelles doivent continuer à accélérer leur mutation commerciale et organisationnelle
Afin de résister à la montée en puissance des nouveaux acteurs, l’univers non bilantiel se doit d’être upgradé au niveau des meilleures pratiques en matière de digital et de mieux encore différencier sa tarification en fonction des clients. Quant à l’univers bilantiel, il doit capitaliser sur l’existence d’un réseau physique souvent placé dans des endroits d’excellence, d’accroître encore la qualité du conseil apporté et de mettre en place des programmes de fidélité mieux segmentés.
Ces constats dessinent un plan d’action en forme de triptyque, reposant sur la diversification, l’ubiquité et un usage respectueux des données.
La diversification est clef pour permettre aux banques traditionnelles de sortir de l’équation impossible d’un univers non bilantiel ouvert à de nouveaux acteurs plus agiles et d’un univers bilantiel soumis à des taux asphyxiants. L’extension vers de nouveaux services de proximité permettrait de développer les revenus tout en accentuant le lien et le contact avec leur fonds de commerce.
Ces services doivent dans un premier temps être définis par adjacence par rapport au cœur de métier actuel, autour des événements majeurs de la relation. Le logement, et l’acquisition immobilière notamment, s’y prêtent naturellement très bien. Mais il est possible d’aller au-delà, vers les services relatifs aux déplacements, voire à certains loisirs. Ces élargissements successifs permettront aux banques de devenir un acteur clef du quotidien de leurs clients.
L’ubiquité est le deuxième axe, très complémentaire du premier. Le réseau physique, bien que coûteux, constitue un avantage majeur pour les banques traditionnelles. Il reste à les transformer pour en faire des lieux de vie à même de faire revenir une large clientèle. Mais il faudra aussi concilier ce réseau physique avec un digital irréprochable, développé en interne ou via des partenariats avec des fintechs.
Cependant, les banques ne pourront tirer profit pleinement de l’avantage de leur réseau physique que si elles parviennent à délivrer dans le même temps la qualité de conseil attendue par leurs clients. Il faudra pour ce faire répondre à trois attentes majeures : une stabilité de la relation client / conseiller ; une attention particulière dans les moments clefs de la vie (chômage, retraite, divorce) ; un conseil personnalisé pour certains produits (assurance vie, crédit immobilier notamment).
Enfin, les banques traditionnelles ont un rôle majeur à jouer dans l’utilisation de la donnée, en devenant un partenaire de confiance de leurs clients et en prenant ainsi le contrepied des GAFA. Si elles y parviennent, elles peuvent regagner des points dans la bataille de l’image. D’autant plus que clients semblent prêts à partager leurs données si cela va de pair avec une meilleure qualité de conseil.
Ces trois axes peuvent constituer le cœur d’un plan à cinq ans visant à regagner tout ou partie des points de ROE qui vont être perdus. Ces actions ne seront néanmoins pas suffisantes, et viendront compléter les plans d’économies et de simplification des process déjà lancés dans tous les établissements, et qui vont devoir encore être accélérés.
Dans un contexte aussi tendu de toute part, le métier est un peu à la croisée des chemins, sommé de se réinventer pour prendre en compte les changements dans les usages et l’arrivée de nouveaux acteurs, tout en étant privé d’une partie de ses moyens financiers pour investir de par l’absence de pente. Face à ces défis, tous les acteurs ne sont pas égaux, et les établissements ne suivront probablement pas tous la même trajectoire.
Deuxième auteur :
Franck Bancel (Academic Advisor)
A l’occasion de la cession de clubs de football, les valeurs qui sont divulguées sont extrêmement variables selon les championnats et les pays concernés (de quelques millions pour un club français de Ligue 2 à plusieurs centaines de millions d’euros pour un club anglais de Premier League). Pourquoi de tels écarts ? Ces valeurs reflètent-elles une bulle ou des erreurs de valorisation ? Au contraire, sont-elles le fruit de la mise en œuvre des méthodes d’évaluation que l’on utilise dans les autres secteurs ?
Pour répondre à ces questions, Franck Bancel et Henri Philippe, co-auteur d’un ouvrage sur la valeur des clubs de football proposent de distinguer trois types de valeur : la valeur financière, la valeur de transaction et la valeur sociétale. Ces trois valeurs peuvent être représentées comme des cercles concentriques qui s’élargissent successivement : au centre, la valeur financière et, à l’extérieur, la valeur sociétale.
Cadre financier
La valeur « financière » est celle qui revient aux seuls actionnaires du club. Elle se détermine en recourant aux méthodes d’évaluation proposées par le cadre financier standard. Pour mesurer cette valeur financière, la méthode DCF (ou « discounted cash flows ») demeure la plus pertinente. Il s’agit d’actualiser les flux de liquidité futurs fondés sur des scénarios cohérents avec l’environnement économique et le projet sportif du club. Dans ce contexte, les clubs des grands championnats européens pour lesquels les droits audiovisuels sont élevés ou ceux qui possèdent leur stade ont la plus grande valeur financière.
La valeur de « transaction » est supérieure à la valeur financière dans la mesure où elle intègre une partie des synergies que l’acquéreur est prêt à payer. Ces synergies peuvent être de nature commerciale, par exemple, quand un club est une vitrine médiatique pour un entrepreneur qui compte utiliser le club pour valoriser ses autres activités. Elles peuvent également représenter le prix à payer pour être exposé médiatiquement ou atteindre d’autres objectifs (philanthropiques, politiques, etc.). Enfin, les acheteurs peuvent dégager d’autres synergies liées par exemple à la propriété de plusieurs clubs.
Valeur sociétale
Enfin, la valeur « sociétale » est celle qui prend en compte la valeur créée pour l’ensemble des parties prenantes (en économie, on parle également « d’externalités »). Il s’agit de mesurer l’impact d’un club sur la création de richesse d’une ville ou d’une région. Cette valeur prend en compte l’ensemble des retombées économiques directes (chiffre d’affaires des commerçants en hausse les jours de matchs, etc.) et indirectes (attractivité renforcée de la ville ou de la région dans laquelle évolue un club de premier plan, etc.). Dans certains cas, cette valeur sociétale est considérable quand un club est le porte-drapeau d’une région et devient une véritable institution (par exemple, le FC Barcelone). Par définition, ces flux pour les parties prenantes sont très difficiles à déterminer.
Au total, un club de football est le plus souvent cédé à une valeur de transaction qui est supérieure à sa valeur financière, mais significativement inférieure à sa valeur sociétale. Comprendre ses différents concepts permet d’appréhender les différentes dimensions de la valeur d’un club de football. Sur le fond, si les modèles financiers permettent de définir la valeur financière d’un club et, dans une moindre mesure, sa valeur de transaction, la valeur sociétale demeure largement hors de portée du cadre financier standard
Le secteur de la construction n’est pas le seul à le constater mais il en est un exemple frappant : son marché est à double fond. Depuis plusieurs décennies les grandes entreprises internationales de construction sont engagées dans une singulière partie qui récompense souvent non pas le meilleur bâtisseur, mais le plus téméraire.
1. DISTRIBUTION DES CARTES
Prenons l’exemple d’un appel d’offres international qui verrait s’affronter au moins cinq acteurs majeurs pour la construction d’un nouvel aéroport. En raison d’une concurrence mondiale exacerbée, il y a fort à parier que le vainqueur remporterait la donne autant pour sa créativité et sa technicité que pour son audace à prendre des risques et proposer un prix lui accordant une marge faible voire quasi nulle. Charge à lui de réaliser un profit grâce à une autre nature de projet : la réclamation, à travers une négociation amiable ou devant un tribunal. Son bénéfice se sera construit en deux temps et selon deux processus bien distincts.
Etrange situation qui fait espérer à tout constructeur de rencontrer des difficultés ou voir se matérialiser certains risques qui ne sont pas de son ressort, afin de disposer d’autant d’opportunités de réviser son contrat et ses prix. Citons pèle mêle les retards dans l’obtention des instructions techniques, la qualité des sols, la défaillance de co-entreprises, les bouleversements sociaux, les grèves, les découvertes archéologiques, les libérations de terrains, des changements techniques etc… Tout autant de possibilités de remettre en cause le prix contractuel et d’ouvrir une négociation avec l’espoir de retrouver sa mise. Mais lors d’un terrassement, tout le monde ne tombe pas sur des vestiges gallo-romains. Première part de hasard.
2. DEUXIEME MAIN
Il est peu probable de voir le marché résorber de lui-même le caractère chaotique de son fonctionnement bien que les prix de la construction aient atteint des niveaux qui réduisent considérablement les espoirs de réaliser un profit. Au contraire, tout semble montrer que ce modèle d’activité tend à se pérenniser, repoussant la création de valeur vers d’autres collèges que ceux des directions opérationnelles et de l’ingénierie.
Les différents acteurs, engagés aux côtés de ces entreprises pour les aider à analyser les faits, établir les causes de leurs difficultés, dire le droit et chiffrer leurs préjudices, pourraient se réjouir de la multiplication des dossiers. Ils façonnent un véritable marché du contentieux de la construction, sous de multiples formes allant de la classique négociation à l’arbitrage international. Il est cependant permis de penser que ce marché mérite mieux qu’un recours fréquent et très coûteux à des procédures de règlement des différends qui semblent se succéder sans véritablement connaître de courbe d’apprentissage.
Les constats restent souvent les mêmes. Les constructeurs peinent, à la fin d’un grand projet, à être en mesure d’en revisiter a posteriori l’exécution afin de démontrer la séquence logique des faits qui expliquent retards et surcoûts. Il est par principe extrêmement difficile de prendre le recul nécessaire pendant l’exécution d’un projet pour mesurer toutes les conséquences de tel ou tel évènement sur trois variables clés d’un ouvrage: la qualité, le temps et le coût. Reste par conséquent nécessaire d’exploiter au mieux les informations de plusieurs natures qui ont été collectées afin de reconstituer plus tard la succession des faits qui racontent l’histoire du projet : données comptables, données de planning, personnels en activité, météorologie, matériels utilisées sont autant de données clés pour reconstruire parfois jour par jour et ouvrage par ouvrage l’avancement de grands chantiers.
A ce jeu, les constructeurs sont rarement exercés et il est frappant de constater le grand écart entre la technicité déployée au service de leurs clients et le peu d’empressement à appliquer la même exigence à leurs pratiques de gestion. Les experts et leurs clients s’évertuent donc à conduire bien tardivement une véritable enquête où les indices laissés par les parties sont souvent incomplets, disparates voire inexistants. Le jeu de piste n’en est que plus long, parfois hasardeux et laisse la place à des approximations, voire au bluff, qui entachent la crédibilité des négociations ou des audiences.
Autant d’imprécisions qui, faute de mieux, conduisent à des protocoles transactionnels déséquilibrés ou poussent les tribunaux à de décevants jugements de Salomon. Après le pari de la reconstitution de la marge, s’ajoute l’incertitude d’une négociation faiblement argumentée. Seconde part de hasard.
3. DU CLUEDO A MASTERMIND
La lecture aisée d’un résumé du projet, qui se serait écrit au fil de l’avancement des travaux grâce à d’efficaces procédures de collecte et de traitement d’information, relève certainement du rêve. Ce type d’exercice dont l’objectif fondamental est de mesurer et expliquer l’écart entre ce qui était prévu et ce qui s’est réalisé, requiert toujours une revue à froid et des analyses poussées. Mais, entre l’avènement d’une intelligence artificielle capable de réaliser en temps réel ce travail et l’état actuel de l’art, la marge est importante. Le secteur de la construction est en matière d’utilisation de nouveaux outils de gestion parmi les derniers de la classe. Ce retard par rapport à d’autres secteurs est d’autant plus prégnant que pointe à l’horizon une véritable révolution numérique.
Le monde de la construction a pris conscience de l’intérêt des outils de modélisation il y a maintenant plusieurs années. Ce que l’on appelle le BIM, pour Building Information Modelling, est l’application à la construction de l’assistance au pilotage des ouvrages selon plusieurs axes : vision 3D des ouvrages, capacité à naviguer dans les historiques des plans, des budgets, pister les responsabilités dans la délivrance des autorisations, possibilités de visualiser les temps passés par ouvrage, etc. Le BIM dans ses versions les plus abouties deviendrait une bibliothèque de données complète de l’ouvrage permettant de le « lire » tant d’un point de vue technique que financier ou juridique. Il est permis d’imaginer à terme un suivi en temps réel des équipements et des équipes afin de reconstituer immédiatement les moyens mobilisés, identifier rapidement les pertes de productivité, chiffrer leurs conséquences. Tout cela afin de déterminer des solutions optimisées de construction et de déploiement d’équipes qui répondent au mieux à la contrainte jugée prépondérante (respect du planning, minimisation des surcoûts, etc..).
Ces systèmes existent et sont utilisés, mais dans des versions encore préliminaires. Leur développement et leur réelle application dans la vie des projets constituerait une révolution des méthodes de construction et de suivi de projets tant leurs implications sont nombreuses. Rien ne s’oppose à cela puisque le chantier est d’ores et déjà un lieu de collecte d’informations pléthoriques. Etrange paradoxe qui voit les acteurs de la construction hésiter à entrer dans un monde qui semble dessiné pour eux ! Entre la diversité des données à analyser (personnels, équipements, matières), et la capacité à les suivre selon un axe technique, temporel et géographique, les outils numériques sont tout indiqués pour extraire de ces données des analyses extrêmement variées. Quelles seraient-elles ?
Il est permis d’anticiper deux phases successives d’utilisation de la donnée.
La première serait tournée vers l’entreprise. Celle-ci utiliserait la masse des données disponibles avec l’objectif d’améliorer la conduite de ses projets ou de mieux démontrer la véracité de ses difficultés. La connaissance en temps réel de la situation améliorerait la réactivité des constructeurs qui piloteraient un modèle intégré de ressources et de coûts avec l’objectif d’en trouver l’optimum, à qualité constante. Le dialogue avec leur client serait plus rationnel, réactif et transparent, au grand bénéfice des directions juridiques des constructeurs qui sauraient mieux préserver leurs droits.
Par ailleurs, la collecte des données permettrait de mieux comprendre et démontrer les mécanismes de la perturbation générale d’un projet, qui résulterait de l’observation de la déformation du modèle dans des cas extrêmes de difficultés nombreuses ou répétées. La littérature est abondante pour expliquer le principe des impacts cumulés sur le rendement d’un chantier. Il se comprend intuitivement : passée une certaine accumulation de difficultés, la désorganisation atteint un tel niveau que les rendements s’effondrent alors que chacune des perturbations prise isolément n’aurait à elle seule que peu d’effet. Pour autant, le monde de la construction a bien du mal à démontrer le phénomène et le quantifier. La plupart des réclamations pour perturbation générale doivent se contenter de l’illustrer qualitativement et tabler sur le caractère démonstratif des évènements censés être à sa source. En analysant systématiquement des données de rendement sur un grand nombre de projets dont l’environnement d’exécution serait enregistré et codifié, le lien de causalité entre la coexistence de nombreuses perturbations et le ralentissement exponentiel de la productivité des travaux pourrait (enfin) être établi. Les tribunaux disposeraient alors de véritables démonstrations pour trancher en connaissance de cause des problématiques qui font aujourd’hui place à beaucoup trop d’intuition ou au mieux d’inférence.
4. VERS UN JEU COLLECTIF
La seconde, plus ambitieuse encore, verrait l’établissement d’une plus grande transparence des résultats entre les acteurs de la construction, clients et fournisseurs, au bénéfice du marché. Le monde aéronautique a intégré cette dimension depuis longtemps en partageant un grand nombre de données notamment issues des incidents ou accidents de vol, avec la volonté d’améliorer la sécurité du secteur. Or les avancées technologiques et l’audace des ouvrages contemporains qui induisent de nouveaux risques devraient pousser ceux-ci à établir une plus grande transparence des caractéristiques des projets : caractéristiques techniques tout d’abord mais aussi réalité des moyens mis en œuvre. La révolution de la donnée induirait une avancée majeure en termes de gestion des grands projets à l’échelle mondiale. A l’image d’autres secteurs, une instance mondiale de coordination pourrait remplir un rôle de facilitateur en collectant systématiquement et de façon anonyme les caractéristiques d’un projet selon ses différentes composantes (technique, coûts, délais), toutes finement détaillées. Le projet serait enregistré et caractérisé en tenant compte de l’ensemble de son exécution jusqu’à sa phase contentieuse. Charge à cet organisme de les mettre librement à disposition, de les analyser, d’encourager l’étude et la recherche à partir de ses bases de données, voire d’émettre des avis indépendants sur la cohérence des propositions lors des phases d’appels d’offre.
La mise à disposition de ces données anonymes sur un marché ouvert dont la diversité d’acteurs libres accélèrerait les innovations, favoriserait les transferts des bonnes pratiques de secteur à secteur, renforcerait les liens entre grandes entreprises, les start-ups, les chercheurs. Ce flux d’informations libres permettrait de décloisonner le monde de la construction, de bénéficier d’expertises nouvelles et de favoriser les innovations de rupture en mutualisant les coûts d’investissements parfois importants que la rentabilité du secteur ne permet pas.
Gageons que cette « tour de contrôle » internationale contribuerait à rétablir des règles de jeux plus rationnelles au bénéfice de toutes les parties prenantes, maîtres d’ouvrage, maîtrise d’œuvre et constructeurs. Elle aiderait à corriger la dérive des prix en montrant et quantifiant le caractère systématique des réclamations financières émises par les constructeurs lors de leurs négociations finales, ainsi que les coûts induits par celles-ci. Il serait alors plus aisé, en utilisant les références disponibles, de bannir les comportements suicidaires et plus généralement d’encadrer les négociations, lors de l’appel d’offre ou à la fin du projet. Les échanges seraient éclairés par un arsenal de situations comparables qui réduirait le champ des incertitudes et permettrait d’enclencher un cercle vertueux de fixation de prix justes. A terme, la circulation d’informations et le partage de données rationnelles ferait converger l’économie des projets. Ces échanges uniformiseraient les marges, à qualité d’ouvrage comparable, et rendraient plus épisodique le recours à de lourds processus contentieux. Les ruptures technologiques n’en seraient que plus mises en valeur.
5. CONCLUSION
Et maintenant ? Les constructeurs peinent à faire le premier pas, sans doute le plus difficile, en formant sur le terrain une nouvelle génération de bâtisseurs à l’utilisation de ces outils. Sans doute faut-il commencer avec une ambition raisonnable, en constituant pas à pas son propre référentiel regroupant outils et bonnes pratiques qui soit pleinement accepté par ses utilisateurs. Ils seront les acteurs clés de la collecte quotidienne des données, leur enrichissement par l’analyse et en seront les premiers bénéficiaires dans leur travail. La puissance des outils laisse entrevoir un bouleversement profond des tâches confiées aux managers de la construction. Les premiers convaincus disposeront d’un avantage compétitif majeur pour optimiser leurs coûts et défendre leur rentabilité, bouleverser le marché en modernisant drastiquement leur relation avec leurs clients par le biais d’un dialogue transparent et argumenté.
L’entreprise qui y parviendra aura cassé les codes du marché.
Dans le premier épisode d’octobre, les auteurs ont décrit1 comment les outils de planification financière évoluent, sur demande du régulateur, vers des plateformes intégrées qui permettent de produire des projections budgétaires et des stress tests à partir de modèles quantitatifs. L’objectif de cet article est de compléter la vision « projet, outil et gouvernance » d’une revue des approches statistiques qui sont au cœur des dispositifs de planification.
L’introduction de méthodes quantitatives s’invite progressivement dans les exercices de planification financière. Motivées par la multiplication d’exercices de stress tests et la volonté de compléter la vision à dire d’expert des opérationnels, les banques développent des modèles de projection des revenus de leurs différents métiers.
Ces projections peuvent s’appuyer sur différentes natures de modèles (mécaniques analytiques, modèles comportementaux ALM, etc.). Pour la projection des volumes d’activité, les modèles économétriques2 sont au cœur du dispositif. Cet article détaille les problématiques (notamment statistiques) auxquelles les équipes de modélisation font face et propose quelques pistes de réflexion pour les dépasser.
1. L’APPROCHE STATISTIQUE EST AU CŒUR DE LA CONSTITUTION DE MODELES DE PROJECTION
Les modèles statistiques permettent d’utiliser les historiques de mesures de performance d’une activité pour définir des relations mathématiques entre ces mesures et des variables externes (variables macro-économiques, données du marché bancaire, etc.) ou internes (saisonnalité). Les projections consistent alors en des modèles de régression multivariée, linéaires ou non-linéaires3.
Dans le cadre de ces travaux, un compromis doit souvent être trouvé entre facilité d’implémentation et d’appropriation par les métiers d’une part, et puissance prédictive et robustesse statistique d’autre part. La démarche pour aboutir à ce compromis consiste alors à mettre en œuvre une démarche itérative en trois étapes (comme le détaille le schéma 1) :
1. la récupération et la transformation de la donnée,
2. la construction du modèle,
3. l’évaluation de la performance du modèle.
Processus itératif menant à d’élaboration d’un modèle (schéma 1)
01
– Mises en place organisationnelle permettant de collecter une donnée de qualité.
– Transformation pour rendre la donnée exploitable via la suppression des événements exceptionnels, complétion des données manquantes, dessaisonalisation et autres transformations mathématiques potentielles.
– Le choix des modèles en étape 2 doit dépendre de la qualité et de la profondeur historique des données.
02
– Choix du modèle appliqué – linéaire en première approche puis utilisation de méthodes de modélisations plus poussées en fonction des données et du type de business étudié.
– Les méthodes d’apprentissage automatique permettent d’orienter les choix des variables, on leur préférera les méthodes plus standards :
a) Plus faciles à mettre en place
b) Permet d’obtenir des résultats plus simples à auditer (problématique de la « black-box » des projections en Machine Learning).
03
–
– Utilisation de tests statistiques pour tester la robustesse mathématique des modèles;
– Backtesting des modèles sur des périodes historiques;
– Test de la sensibilité du modèle à un choc sur les variables explicatives.
2. LA GESTION DE LA DONNEE : PREREQUIS A LA CONSTRUCTION DE MODELES STABLES
La qualité des approches statistiques dépend fortement des données sur lesquelles s’appuient les travaux de modélisation. En effet, si les données historiques à partir desquelles sont définies les relations avec les indicateurs macro-économiques (ou autres indicateurs) comportent des effets venant les « polluer », les modèles sont moins précis voire peuvent mener à des conclusions erronées. Dans ce contexte, la validation avec les métiers de la qualité des données est un prérequis à toute analyse statistique. Il est important d’impliquer des membres des équipes métiers dans cette réflexion afin de capter l’ensemble des éléments « non-normatifs ». Une fois ces vérifications réalisées, des transformations de séries de données peuvent améliorer la qualité des modèles à tester dans l’étape (2). La pertinence de ces transformations doit tenir compte de différents types d’effets dont :
– la représentativité d’éléments business dits exceptionnels (one-offs), comme des fusions et acquisitions d’ampleur (« jumbo deals ») ou des chocs fiscaux, qui peuvent en réalité être récurrents ;
– la complétion de données manquantes et/ou asynchrones. Par exemple, on peut souhaiter projeter mensuellement un indicateur à partir de prédicteurs disponibles seulement trimestriellement. Dans ce cas, il est soit possible de s’appuyer sur des séries trimestrielles (ce qui implique de perdre des points d’analyse), soit d’interpoler mensuellement (de façon linéaire ou non), voire de réaliser un filtrage4 en complétant les données manquantes par des estimations statistiquement cohérentes issues d’indicateurs ayant une plus grande fréquence ;
– la saisonnalité5, à retraiter par exemple dans le cas de variables explicatives non saisonnières. La transformation de dessaisonalisation peut se baser sur l’algorithme ARIMA-X126 ou la procédure STL basée sur des régressions locales7 ;
– le lissage de la série à expliquer, par exemple en calculant une moyenne mobile8 ;
– l’introduction d’un effet retard, ou lag, sur la série à expliquer.
D’autres transformations mathématiques pourront alternativement être appliquées sur les séries pour itérativement améliorer les résultats des modèles évalués pendant l’étape d’évaluation des modèles (3) :
– la différentiation des données – d’ordre un ou deux – avec une fréquence courte (un trimestre par exemple) ou longue (une année par exemple). Ceci permet généralement de corriger le biais statistique de la non-stationnarité9, mais peut parfois se révéler instable en projection ;
– l’application de fonctions (rendement, carré, logarithme) visant à capter des effets non linéaires ;
– l’utilisation de modèles en co-intégration (voir ci-dessous) en cas de non-stationnarité des variables à expliquer.
L’appréciation de la qualité des données collectées ainsi que les caractéristiques des transformations qui leur ont été appliquées pendant l’étape de collecte de la donnée (1) doivent être prises en compte dans le choix du modèle développé pendant l’étape de modélisation (2). En effet, la profondeur historique des données doit être suffisante pour capter des situations distinctes (crises, scénarios de taux différenciés, etc.) et les données doivent présenter des réalités métier comparables (par exemple un effet d’échelle lié au nombre de traders sur un desk ou une réorganisation de l’activité doivent être pris en compte pour harmoniser les séries d’un point de vue statistique).
3. ADAPTER LA DETERMINATION DES VARIABLES EXPLICATIVES ET L’EXPRESSION DU MODELE A L’ENVIRONNEMENT
Choix du modèle
L’expression du modèle doit s’adapter aux besoins des utilisateurs de l’outil.
– Les approches linéaires, par exemple, sont plus simples à mettre en œuvre mais ne permettent pas de capter des relations plus complexes qu’une relation affine entre la variable (ou sa croissance) et son inducteur (ou sa croissance). Couplées à l’utilisation de transformations non linéaires sur les variables explicatives du modèle, les approches linéaires simples permettent cependant de capter des non-linéarités. Par exemple, le logarithme des crédits immobiliers peut être corrélé au logarithme de la croissance du revenu des ménages. L’utilisation de la transformation logarithmique permet d’associer des variables dont l’ordre de grandeur est différent.
– Les méthodes d’apprentissage automatique10, comme les forêts aléatoires11, sont de très bons outils pour orienter le choix des variables. Elles sont par contre rarement conservées pour la projection elle-même car elles sont souvent complexes à mettre en place et difficiles à auditer pour le régulateur. En outre, elles ne mettent pas toujours en exergue de driver exogène de l’activité et peuvent rester trop centrées sur des formes autorégressives12.
Modèles en co-intégration
En cas de non-stationnarité, les modèles statistiques classiques sont instables et des techniques spécifiques sont à mettre en œuvre. Une notion aujourd’hui centrale est la notion de modèle en co-intégration pour des variables macro-économiques. Un ensemble de variables est co-intégré avec la série observée s’il existe une combinaison des variables permettant d’annuler « la tendance stochastique » de la série observée pour aboutir à une série stationnaire. Par exemple, il a été démontré qu’aux Etats-Unis, la consommation (réelle, par habitant) et le revenu disponible (réel, par habitant) sont co-intégrés, soulignant une relation stable entre ces deux séries non stationnaires.
Ces variables co-intégrées sont alors liées avec la série observée par une équation linéaire dite « long-terme » qui s’interprète comme un équilibre macro-économique par rapport auquel les écarts constituent des fluctuations temporaires. En reprenant l’exemple précédent, une fluctuation temporaire de la consommation par rapport au revenu disponible peut survenir à un trimestre donné, mais celle-ci se répercutera avec le signe opposé sur la consommation future du prochain trimestre dans une proportion comparable, ce qui tend à ramener les deux séries vers leur point d’équilibre qui est représenté par la relation long-terme.
Les approches historiques pour appréhender ce type de relation sont les approches d’Engle et Granger13 ou Johannsen14, ainsi que les modèles dits Autoregressive Distributed Lag (ARDL). Tous ces modèles capturent à la fois les relations de long-terme ainsi que les déviations par rapport à ces équilibres via des modèles de retour à la moyenne et de correction d’erreur.
Choix des variables
Dans un premier temps les variables explicatives seront choisies, parmi l’ensemble des variables transformées, grâce à des études de corrélations simples. Le choix des variables explicatives peut aussi être éclairé par l’expertise métier, des approches systématiques de classification (comme une analyse en composantes principales15) ou encore leur significativité dans les méthodes d’apprentissage automatique (on conserve alors les variables mises en exergue par la méthode mais en leur appliquant des modèles statistiques classiques).
Au contraire, certaines variables seront exclues a posteriori par les tests statistiques en étape (3). En particulier, un trop grand nombre de variables peut aboutir à du sur-calibrage (over-fitting) et des variables colinéaires à une instabilité des coefficients de la régression16.
Calibrage des paramètres
La méthode d’estimation des paramètres de la régression dépend des tests réalisés en étape (3). Ils seront estimés soit par l’estimateur des moindres carrés, soit par exemple par des estimateurs de Yule-Walker17 pour éviter les biais que fait peser l’existence d’autocorrélation des résidus dans les séries utilisées.
Les problèmes posés par la non–stationnarité concernent aussi l’inférence des paramètres du modèle estimé, pour laquelle les lois asymptotiques usuelles dérivées dans le cadre de séries stationnaires peuvent mener à des incohérences si utilisées telles quelles. Notamment, les p-values (voir plus bas) et les intervalles de confiances ne sont plus fiables dans le cadre des séries non-stationnaires ou de la co-intégration.
4. L’EVALUATION DES MODELES DONNE SA CREDIBILITE AUX TRAVAUX DE PROJECTION STATISTIQUE
Le pouvoir prédictif du modèle doit être vérifié par un ensemble de tests. Des tests statistiques ou des backtestings peuvent être conduits pour conforter le choix d’un modèle, bien qu’aucun ne soit éliminatoire quant au choix du modèle. Notons que l’exigence de vérification de ces tests est à pondérer par la qualité de la donnée disponible. La sensibilité du modèle à un choc des variables explicatives devra dans tous les cas être appréciée.
Tests statistiques
Le calcul de la significativité des variables (p-value) est important mais l’estimation des paramètres et le calcul des p-valeurs doivent être corrigés en cas de non-respect des hypothèses de base de la régression linéaire18 :
– Stationnarité des séries temporelles19 (homogénéité dans le temps de leur distribution) : les résultats des régressions linéaires peuvent être instables dans le temps si les séries ne sont pas stationnaires, même en cas de bon R2. Dans ce cas, il est préférable de transformer les variables (étape (1)) ou de choisir un modèle en co-intégration (étape (2)).
– Résidus homoscédastiques20 (variance constante dans le temps) et/ou plus généralement non auto-corrélés21 : en cas de non-respect, cela peut être révélateur d’une autre variable explicative non trouvée. Cela peut biaiser de manière importante les variances et les intervalles de confiance des coefficients. Il est donc nécessaire d’introduire des corrections sur les coefficients22 ou de modifier les estimateurs utilisés23.
– Normalité des résidus24 : cette hypothèse de la régression linéaire est cependant rarement vérifiable sur de petits échantillons (propriété asymptotique) et n’est pas nécessaire à la convergence des estimateurs des paramètres.
Backtest (ou cross-validation, ou out-of-sample performance)
Si la profondeur historique l’y autorise, il est possible de mesurer l’écart entre la série historique réelle et le modèle calibré sur une période temporelle différente. En renouvelant l’exercice sur plusieurs sous-périodes, il est possible par ailleurs de vérifier la stabilité des coefficients de la régression. Une erreur moyenne équivalente entre la période testée et la période de calibrage est un bon indicateur que le modèle n’est pas sur-calibré (over-fitting).
5. DIFFICULTES
La modélisation de l’ensemble des agrégats financiers de la banque suppose la modélisation d’activités de natures diverses s’appuyant sur des modélisations statistiques hétérogènes. Dans ce contexte, l’équipe en charge du développement des modèles doit s’adapter à la réalité de chacun des segments d’activité. Il en résulte une panoplie de modèles statistiques à articuler sur une plateforme flexible permettant de les lier entre eux et aux sources de données (bases métier notamment) pour proposer des résultats directement exploitables par les équipes de la plateforme.
Quatre types de difficultés doivent être dépassées pour constituer une base de modèles suffisamment solide à intégrer à la plateforme :
– La difficulté à trouver des modèles statistiques prédictifs sur certains périmètres : l’ensemble des activités ne sont pas modélisables par une approche statistique et sont plus complexes à appréhender (commissions spécifiques, frais généraux, éléments exceptionnels etc). Par ailleurs, la plupart des modèles statistiques classiques peinent à capter les non-linéarités dans les comportements passés.
– L’imbrication d’effets distincts à modéliser en parallèle de la modélisation des activités : effets change, concentration des portefeuilles, etc. Les effets de contagion, de réputation et l’ensemble des feedback effects sont particulièrement complexes à capter.
– La difficulté à collecter des données de qualité faciles à mettre à jour après le premier exercice de modélisation : manque de profondeur des données, problématiques d’homogénéité etc.
– Les difficultés organisationnelles et d’outil.
6. CONCLUSION
Si les établissements bancaires disposent aujourd’hui d’équipes spécialistes de la modélisation quantitative reconnues, ces compétences se concentrent surtout dans les équipes Risques sur les problématiques de risque de crédit et de risque de marché. Pour la plupart des établissements, la modélisation prospective à partir de méthodes statistiques implique donc la constitution d’équipes spécialistes.
Les méthodes discutées plus haut apportent une vision d’ensemble des moyens statistiques dont disposent les équipes de planification pour construire des modèles de projection. La dimension humaine et la capacité à recruter des talents capables de construire des modèles complexes est au cœur des enjeux.
Le développement d’une approche tactique, via des outils agiles, permet dans un premier temps de constituer un premier support à la plateforme et de distinguer la construction des modèles de leur industrialisation dans les systèmes de la banque.
1 « L’émergence des plateformes intégrées de planification financière et de stress tests » Revue Banque 824, pp. xx-xx
2 Les modèles économétriques permettent la modélisation de variables économiques à partir de l’observation statistique de grandeurs pertinentes.
3 Les modèles économétriques permettent la modélisation de variables économiques à partir de l’observation statistique de grandeurs pertinentes.
4 Ceci peut être implémenté à l’aide d’un filtre de Kalman par exemple.
5 Ou plus généralement l’autocorrélation de la série, ce qui revient à introduire une variable endogène dans le modèle.
6 L’algorithme ARIMA-X12 est une méthode populaire d’ajustement de la saisonnalité développée par le Bureau du recensement des États-Unis. Cette méthode s’applique à des séries ayant une saisonnalité mensuelle ou trimestrielle. Elle est implémentée dans la plupart des logiciels de statistiques et est l’une des méthodes prônées par l’European Statistical System (ESS).
7 La procédure STL (“Seasonal and Trend decomposition using Loess”) est une méthode de décomposition d’une série temporelle en une composante saisonnière, une tendance et des résidus. A ce titre, c’est aussi une méthode d’ajustement de la saisonnalité qui peut être préférée dans certains cas à des méthodes du types ARIMA-X12 (notamment en cas de composante saisonnière fluctuante ou en présence d’observations aberrantes).
8 Plus généralement, cela peut être incorporé, avec la saisonnalité, dans une démarché de modélisation de type ARMA (Auto Regressive Moving Average), ARIMA (AutoRegressive Integrated Moving Average) ou SARIMA (Seasonal ARIMA).
9 Le caractère stationnaire (ou non) d’une série temporelle se rapporte à l’homogénéité de sa distribution statistique au cours du temps. Une propriété plus faible utilisée en pratique (stationnarité faible) est le fait d’avoir ses deux premiers moments (moyenne et variance) constants, ainsi qu’une fonction d’autocorrélation invariante par translation au cours du temps.
10 Ces méthodes font partie de ce que l’on appelle aujourd’hui le « Machine Learning » qui vise à tirer parti des données pour déterminer la forme du modèle à adopter, plutôt que de le spécifier en amont. Ces méthodes se fondent sur l’analyse statistique d’un grand nombre de données de natures variées.
11 Les forêts aléatoires sont une famille d’algorithmes d’apprentissage automatique qui se fondent sur des ensembles d’arbres de décision. L’intérêt de cette méthode est d’entrainer un ensemble d’arbres de décision sur des sous-ensembles de l’ensemble des données initiales et ainsi de limiter le problème de sur apprentissage. Ce type d’algorithme permet de faire de la classification (estimation de variables discrètes) mais aussi de la régression (estimation de variables continues).
12 Un modèle autorégressif est un modèle dans lequel une variable est expliquée par ses valeurs passées plutôt que par d’autres variables.
13 Co-Integration and Error Correction: Representation, Estimation, and Testing, Robert F. Engle and C. W. J. Granger, 1987).
14 Estimation and Hypothesis Testing of Cointegration Vectors in Gaussian Vector Autoregressive Models, Johansen, Søren, 1991.
15 L’analyse en composantes principales (ACP), est une méthode d’analyse de données, qui consiste à transformer des variables corrélées entre elles en nouvelles variables dé-corrélées les unes des autres à partir de leur caractéristiques mathématiques (décomposition orthogonale aux valeurs propres).
16 Les régressions Lasso ou Ridge permettent de régulariser le problème et de sélectionner les variables de plus d’intérêt en introduisant des termes de pénalité.
17 Les équations de Yule-Walker établissent une correspondance directe entre les paramètres du modèle et ses autocovariances. Elles sont utiles pour déterminer la fonction d’autocorrélation ou estimer les paramètres d’un modèle.
18 Quand les hypothèses qui fournissent les distributions asymptotiques ou les intervalles de confiance des estimateurs ne sont plus vérifiées, les intervalles de confiance peuvent quand même être calculés par simulation (bootstraping ou ré échantillonnage).
19 Les tests classiques à mener sont ceux de Dickey-Fuller (augmenté), Phillips-Perron ou Kwiatkowski-Phillips-Schmidt-Shin.
20 Tests de Breusch-Pagan et de Goldfeld et Quandt.
Le foisonnement de Projets de blockchain et l’engouement massif observés se sont traduits par des mouvements de capitaux massifs à destination d’un espace financier nouveau et parallèle, autour des crypto-actifs. Les ICO (Initial Coin Offering) en sont l’exemple le plus populaire.
Dans cet article, notre objectif est de poser les contours de ce nouveau marché, en définissant et catégorisant les cryptos-actifs d’un point de vue financier. Cette catégorisation nécessite de comprendre le lien entre les différents types de technologie et la finalité des tokens leur étant rattachés. En plus nous adresserons la problématique de la rationalisation des cours par une ébauche d’approche fondamentale. Cet exercice est rendu difficile par la jeunesse de la technologie, l’absence de cadre défini et stable, et les caractéristiques particulières de ces nouveaux actifs. Ces dernières compliquent l’application des théories financières actuelles associées aux classes d’actif que nous connaissons. Nous en présenterons néanmoins les enjeux de façon simplifiée, en prenant de nombreuses hypothèses contraignantes.
1. LES CONTOURS FINANCIERS D’UN NOUVEAU MONDE
Nous nommons souvent indifféremment tokens, crypto-monnaies et crypto-actifs, pour éviter les répétitions de style, dans la mesure où ces termes font référence dans les grandes lignes au même objet. Comment faudrait-il les définir en réalité, quelles en sont les différences au sens économique et financier ?
Nous choisirons ici d’utiliser le terme crypto-actif pour nommer de manière générale et non exclusive l’ensemble de ces nouveaux objets. En effet, ces derniers ne constituent pas un ensemble homogène. Si l’appellation crypto-monnaie appliquée au Bitcoin est déjà controversée sur les plans économique et politique, elle parait d’autant plus inappropriée dans le cadre des utility token. Ils correspondent en effet généralement à un droit d’usage bien précis (comme pourrait l’être un jeton de lavomatique), s’éloignant de la définition monétaire.
D’un point de vue général, un crypto-actif peut se définir comme le droit d’entrée et l’unité de compte exclusive d’un écosystème créé (un crypto-actif par projet).
Notre analyse se concentre sur les cryptos-monnayeurs, les chain-producers et les chain-users. Des crypto-actifs sont associés à la totalité de ces projets, dont les caractéristiques sont différentes. Nous excluons de cette partie les projets facilitateurs d’appropriation et les blockchain privées et permissives, puisque dans la majorité des cas ils ne sont pas associés à un crypto-actif1.
– Les crypto-monnayeurs ont une ambition quasiment uniquement monétaire (valeur transactionnelle et réserve de valeur) et reposent sur des crypto-monnaies (Bitcoin, Dash, Litecoin…).
– Les chain-producers sont également des blockchain auxquelles est associée une crypto-monnaie (Ethereum par exemple). De plus, elles constituent une infrastructure permettant à des utilisateurs (chain-users) de développer une application et son token associé. Les transactions de ce dernier seront effectuées et tracées via la blockchain mise en place par le blockchain producer. Les crypto-actifs associés à ces acteurs ont donc un usage hybride, puisqu’il est à la fois monétaire et utilitaire (développement d’applications).
– Les chain users correspondent à des projets d’application construits sur des blockchain existantes (à titre d’exemple application décentralisée de rencontre basée sur la blockchain Ethereum). Sur le plan financier, il convient de considérer d’une part les utility tokens qui composent la majorité des tokens. Les projets associés proposent un service ou un usage qui n’est accessible que par ce dernier. Ce dernier n’a pas pour objectif initial de constituer une monnaie à proprement parler (réserve de valeur ou un moyen d’échange généralisé), mais de constituer un moyen d’aligner les intérêts au sein d’un réseau et/ou de constituer la seule grandeur permettant d’accéder au service proposé. Les security tokens sont quant à eux très proches du fonctionnement des actions et ne changent rien aux mécanismes financiers classiques. L’objectif général de ce type de mécanisme est d’associer un actif à un token, et donc d’introduire cet actif dans la blockchain via ce même token. Cette opération lui permet de bénéficier de tous les avantages de la technologie (traçabilité, sécurité…) : on parle alors de tokenisation des actifs.
En synthèse et de façon très simplifiée, on pourrait comparer les crypto-actifs soit à une pièce de monnaie digitale d’un système monétaire parallèle (crypto-monnaies), soit à un jeton d’une forme particulière permettant d’accéder à un droit d’usage, comme actionner une station de lavage automobile (token) ou financier (dividendes).
Au sein de ces catégories, les crypto-actifs revêtent des réalités multiples, par la combinaison de différents paramètres. Selon Richard Olsen, fondateur de la plateforme d’échange Lykke, « il n’y aura pas des millions de tokens mais des millions de types de tokens » 2.
Dans ce contexte, un canevas de classification et d’analyse unique apparait essentiel sur les plans réglementaire, stratégique et financier. Nous proposons une grille de lecture, destinée à capter l’ensemble des projets, autour des critères d’usage, d’origine, d’offre, d’existence du crypto-actif, de technologie, de droits associés et de degré de centralisation.
Usage
Nous distinguons ici les crypto-actifs par l’objectif qu’ils poursuivent :
– Usage financier : les tokens représentent un actif financier. Il s’agit des security tokens.
– Usage utilitaire : le token est le moyen d’accéder à un service ou un produit bien spécifique (utility)
– Usage monétaire : le token est l’usage en lui-même du réseau (réserve de valeur et transactions)
– Usage hybride entre l’usage monétaire et la plateforme de développement (généralement associé aux chaines producers)
Origine
Il s’agit de l’identification des acteurs ayant le droit d’émettre le crypto-actif au sein de l’écosystème :
– Emetteur unique : c’est le cas pour la grande majorité des tokens utility. Les tokens sont créés une unique fois par l’entreprise puis mis en vente lors de la phase d’ICO.
– Groupes d’émetteurs : le cas d’un comité de nœuds émetteurs, dans le cas d’une blockchain permissive par exemple.
– Emission décentralisée : n’importe quelle personne du réseau participe au processus de création monétaire. C’est le cas pour le Bitcoin notamment avec le processus de minage, rémunérant le mineur pour son « travail ».
Offre
L’offre de crypto-actif correspond au nombre d’unités qui sera créé par le ou les participants agréés. On distingue :
– Offre fixe : le cas dans la majorité des ICOs, le « total suppy » est inscrit dans le white paper et auditable dans la blockchain.
– Offre en continue mais limitée : c’est le cas du bitcoin. Le nombre total de bitcoin est connu (21 millions) mais la création monétaire est progressive, par le minage.
– Offre illimitée : ce serait le cas pour la tokenisation d’un bien de consommation. Par exemple, si une salle de spectacle émettait des tokens représentant des places de concert, elles pourraient en émettre sans limite.
Existence
La notion d’existence couvre la durée de vie d’un actif, et se décompose selon les axes suivants :
– Utilisation unique : le crypto-actif, une fois utilisé, est détruit (brulé dans le jargon de la blockchain). Cela peut être le cas d’un actif digital représentant un ticket de spectacle par exemple.
– Multi-usage : il est brulé après un certain nombre d’utilisations. Nous classons dans cette catégorie les projets qui envisagent de détruire leurs actifs progressivement (par exemple, on détruit 25% des valeurs utilisés à la première utilisation, puis 10% à la seconde…).
– Permanent : le crypto-actif, une fois émis, n’a pas vocation à disparaitre. C’est le cas des principales crypto-monnaies. Notons cependant que certains experts considèrent que des bitcoins « disparaissent » lorsque son détendeur perd sa clé privée et donc son accès à ses crypto-monnaies.
Technologie
Il ne s’agit pas ici de décrire la capacité technique du projet ou de la blockchain sous-jacente, mais de comprendre sur quelle « couche » technologique le crypto-actif est construit. On distingue :
– dApps tokens : il s’agit d’un crypto-actif permettant d’accéder à une application, c’est la grande majorité des chains users et des security tokens. Il est implémenté sur le niveau applicatif reposant sur l’infrastructure d’une blockchain.
– Token de protocole non-natifs : ce type de token est implémenté au sein d’un protocole économique, lui-même reposant sur une infrastructure blockchain. Ce token est un composant intégral du protocole économique, et lui permet de fonctionner. Nous avons classé ces projets au sein de la catégorie des chain users.
– Token natifs : token implémenté au niveau du protocole même de la blockchain ; ils sont critiques pour le fonctionnement de la blockchain et font partie du mécanisme de consensus. Il s’agit principalement des crypto-monnaies pures et des chains producers.
Droits associés
Les droits associés au token diffèrent en fonction des utilisations. Il est nécessaire de distinguer :
– Vote/Propriété : droits souvent associés au token de type security
– Usage : droit lié à l’utilisation d’un service/du réseau.
– Travail : droit de contribuer au réseau. Il faut posséder cet actif pour contribuer au réseau, qui rémunère alors les participants en crypto-actif. L’exemple le plus simple est l’utilisation du Proof-of-stake : ce mécanisme de validation fonctionne sur le principe des comptes séquestres. Un utilisateur voulant participer au réseau place dans un compte séquestre un montant de crypto-monnaie qu’il ne pourra pas utiliser mais qui servira à calculer son poids dans l’algorithme de la validation.
– Hybride : lorsque les droits associés au crypto-actif sont multiples ; on citera par exemple le Dash, dont le mécanisme de validation nécessite des Dash, qui est également l’utilité principal et le droit d’utilisation du réseau. De même, Cardano et Ethereum, une fois sous Casper3, seront dans cette catégorie.
Décentralisation du modèle
La blockchain est souvent associé au concept de décentralisation, fidèle à la philosophie des pionniers et à la promesse d’horizontalité de la technologie. En réalité, les jeux d’acteurs à l’œuvre et la transformation économique en cours est plus complexe qu’un simple basculement de la centralisation vers la décentralisation. Les degrés de centralisation sont donc divers, y compris dans les initiatives dites de la « nouvelle économie ». On distingue les projets :
– Centralisés : pour utiliser le service d’une entreprise, le consommateur règle en token. Ainsi le fonctionnement est similaire à celui d’une entreprise traditionnelle, à l’exception qu’elle collecte son chiffre d’affaires en token et non en monnaie traditionnelle.
– Semi-centralisés : l’utilisation est soumise à quelques nœuds du réseau ; on peut penser notamment aux blockchains permissives ;
– Décentralisés : une fois le crypto-actif émis, il circule librement de pair à pair, sans intervention d’une entité centrale.
En intégrant ces paramètres sur une échelle de 0 à 3, on obtient la représentation ci-dessous, permettant notamment de comparer les crypto-actifs entre eux. Cela permet à l’entrepreneur de faire les choix financiers « token economy » en ligne avec ses objectifs stratégiques et aux investisseurs de caractériser leurs investissements. Cette classification est également clé pour envisager de rationaliser la valeur et le prix de ces différents nouveaux actifs. Nous avons représenté les quatre types de crypto-actifs identifiés dans la première partie : le Bitcoin, représentant les crypto-monnaies pures, l’Ethereum représentant les chain producers, un token utility standard, et un token security.
Canevas de classification des crypto-actifs
2. TENTATIVE DE RATIONALISATION DES COURS ET DE LA VALEUR
Dans ce contexte, notre objectif est d’apporter un raisonnement rationnel sur les crypto-actifs, de les classifier, de les comparer à des actifs traditionnels et de questionner les méthodes d’évaluation – certes imparfaites à ce stade – qui pourraient permettre de rationaliser les cours existants.
Dans son article et son ouvrage4, Chris Burniske reprend les travaux de Robert J. Greer What is an asset class anyway (qu’est-ce qu’une classe d’actif) et distingue trois catégories d’actifs : les actifs financiers (basés sur l’actualisation des cash-flow futurs comme les actions, les obligations et l’immobilier), les actifs consommables et transformables (commodités, métaux précieux), et les « store of value », non consommables et ne générant pas de cash-flow (métaux précieux, monnaies, œuvres d’art).
– Les monnaies : elles constituent des moyens d’échange, de stockage et font office d’unité de compte. Elles sont utilisées pour échanger des actifs, les cash-flow reçus de ceux-ci et peuvent constituer des réserves de valeur pour les investisseurs décidant de ne pas investir. Ne délivrant pas de cash-flow, elles ne peuvent pas être évaluées mais peuvent être valorisées relativement les unes par rapport aux autres. Si à court terme des mouvements de marché et les politiques monétaires peuvent influer sur ces prix, à long terme la valeur des monnaies avec l’acceptation la plus large et le plus grand pouvoir d’achat doit croitre par rapport aux autres.
– Les actifs financiers (actions, obligations, immobiliers, options) : ils donnent droit à des flux financiers futurs et peuvent être évalués sur cette base qu’ils soient établis contractuellement ou contingent à des paramètres (options). Les actifs financiers peuvent être classiquement évalués par l’actualisation de la séquence de cash-flow futurs. Ils peuvent également être évalués les uns par rapport aux autres en utilisant des métriques communes (par exemple pour les actions : Price Earning Ratio, Enterprise Value/EBITDA, Price to Book…). Une entreprise peut être considérée comme un actif et donc être évaluée en actualisant les cash-flow futurs. La valeur des actions est déduite par soustraction de la dette.
– Les commodités (blé, métaux précieux comme l’or…) : elles constituent essentiellement des ressources industrielles et dérivent leur valeur d’un besoin fondamental (énergie, nourriture…). Elles peuvent théoriquement être évaluées par la rencontre de l’offre et de la demande modélisées. Selon lui, elles sont globalement davantage valorisées, à travers les cycles, comparées à leur propre prix historique ou à ceux des autres commodités.
d. Les Collectibles : marché de l’art et de l’émotion. La valeur est guidée par l’esthétique et l’émotion, le degré de désirabilité et la rareté. Les œuvres sont donc généralement valorisées et ne délivrent pas de flux de trésorerie.
Les crypto-actifs peuvent-ils s’inscrire dans ces catégories?
À première vue, leur catégorisation n’est pas une évidence
Aux yeux de Melamed (chairman émérite du Chicago stock exchange), le Bitcoin va devenir une classe d’actif à part entière et régulée comme telle selon des règles propres, à l’image de l’or ou des actions6.
Dans un article du 24 octobre 2017 paru sur son blog, Aswath Damodoran explique au contraire que le Bitcoin ne constitue pas une nouvelle classe d’actifs de nature à remettre en cause les fondamentaux du risque, de l’investissement et de la gestion7. Le professeur de finance classifie le Bitcoin comme une monnaie – certes imparfaite – et non comme un actif, concluant qu’il ne peut par conséquent pas être « évaluée mais seulement « pricée ». Dans ce contexte, investir dans le Bitcoin n’aurait pas de sens et tout agent rationnel se limiterait à réaliser des opérations de trading.
Si le Bitcoin peut théoriquement répondre à la définition économique d’une monnaie (imparfaite), il n’a pas cours légal donc n’est pas réglementairement considéré comme une monnaie. Il est par ailleurs traité comme une commodité par le juge fédéral américain. Ce dernier permet en effet sa régulation par la US commodity Futures Trading Commission (CTFC) listant des contrats futurs8.
Sur le plan statistique, les crypto-actifs sont-ils corrélés (séparément ou de façon uniforme) à des actifs traditionnels ? Nous avons recherché des corrélations entre les principaux crypto-actifs (Bitcoin : BTC, Litecoin : LTC, Ripple : XRP et Ether : ETH) et les actifs traditionnels (indices boursiers comme l’Eurostoxx ou le CAC 40, Brent, or, euro, dollar, niveau des taux…)9. Les résultats démontrent l’absence de corrélation entre les crypto-actifs et les variables « classiques » : le Bitcoin semble par exemple évoluer sans aucun lien avec l’or, le pétrole, le dollar ou l’Eurostoxx. En revanche, on note une très forte corrélation entre les différents crypto-actifs même de nature différente : le Bitcoin, le Litecoin, l’Ether et le Ripple sont très corrélées entre eux. Cette homogénéité statistique entre ces valeurs et l’absence de corrélation entre ce groupe et les autres actifs amènent deux conclusions. La première est qu’ils pourraient à ce titre être considérés comme une classe d’actif à part. La seconde est que cette absence de corrélation est un argument de poids dans la constitution de la dimension réserve de valeur de ces nouvelles grandeurs car son absence de corrélation avec les autres variables immuniseraient un investissement des variations de l’économie mondiale. En revanche, si le Bitcoin ou l’Ethervenaient à être plus largement utilisés, ne pourrait-on pas penser que la corrélation de leurs cours aux paramètres économiques mondiaux aurait tendance à augmenter ? On peut également noter des corrélations différentes entre les crypto-actifs eux-mêmes ; le Bitcoin (BTC) semble notamment davantage corréler avec le Litecoin (LTC) qu’avec l’Ether (ETH) ou le Ripple (XRP).
Nous reprenons la distinction opérée préalablement entre crypto-monnaies et tokens.
Les crypto-monnaies
Prenons le cas du Bitcoin.
– Il présente des attributs monétaires : réserve de valeur, transactions et unité de compte. Comme nous l’avons vu, les crypto-monnaies pourraient prétendre, sous certaines hypothèses de l’angle de l’école autrichienne à l’appellation de monnaie imparfaite. La totalité ou presque des crypto-actifs possèdent une parité en Bitcoin ou en Ether, et la performance de nombreux token est toujours présentée en écart au dollar, au Bitcoin et à l’Ether. Ces derniers constitueraient en cela quasiment une forme de métrique de référence. D’un point de vue plus subjectif, il est intéressant de noter la perception en termes d’unité de compte qu’ont construit les membres de cette communauté blockchain. Pour eux, un Bitcoin représente une grandeur en soit, dont la parité en dollar semble parfois être relayée au second rang d’importance. A titre d’exemple, nombre de projets que nous rencontrons rémunèrent leurs stakeholders sur un montant fixe de Bitcoin, indépendamment de l’évolution du cours.
– Il possède des caractéristiques des commodités du fait de sa rareté programmée par le code ne pouvant être remise en cause.
– Cette rareté est très singulière puisque comme le démontre Chris Burniske, la trajectoire d’offre du Bitcoin, logarithmique et prédéterminée par le code s’éloigne drastiquement de l’offre de monnaie traditionnelle (l’évolution de la création monétaire en dollar est très erratique et ne répond pratiquement plus au critère de rareté).
– Il peut afficher également dans une certaine mesure des points communs avec les collectibles. Mais les crypto-actifs et plus particulièrement le Bitcoin comportent une fortement dimension subjective dépassant l’effet de mode du fait d’une forte dimension philosophique et politique. Ce phénomène fait du Bitcoin une forme de totem subjectif ; idée particulièrement présente au sein de la communauté Bitcoin et des Bitcoin gourous (individus ne jurant que par le Bitcoin).
In fine, le Bitcoin semble financièrement plus proche d’une monnaie, mais avec des caractéristiques singulières rencontrées dans d’autres classes d’actifs, le distinguant des monnaies traditionnelles.
Ce constat peut être généralisé à l’ensemble des crypto-monnaies pures mais pas aux crypto-monnaies des chain-producers (ex : Ether) qui combinent une fonction monétaire et un usage.
Etat des lieux des classes d’actif et des caractéristiques discriminantes
Les tokens des chain-users
Nous ne traitons pas des security tokens qui s’apparentent financièrement presque parfaitement à des actions.
Les utility token présentent un profil très proche d’un actif financier, à l’exception de la notion de la trajectoire d’offre connue à l’avance et programmée. La caractéristique du flux financier est également différente puisque dans le cas d’un utility token, il s’agit de la monétisation future d’un usage donné.
Etat des lieux des classes d’actif et des caractéristiques discriminantes
1 Il existe des exceptions : par exemple la plateforme Binance possède un token, tout comme la Blockchain permissive Ripple
3 Casper est le nom de la mise à jour du mécanisme de validation d’Ethereum. Le mécanisme ne nécessitera plus d’avoir de la puissance de calcul (Proof-of-Work) mais nécessitera uniquement d’avoir des ethers (Proof-of-Stake).
4Cryptoassets The Innovation Investor’s Guide to Bitcoin and Beyond” Chris Burniske and Jack Tatar
5 The Bitcoin Boom: Asset, Currency, Commodity and Collectible, Aswath Damodaran.
6 Tomo Uetake, Hideyuki Sano, Interview: Bitcoin a new asset class, not a crypto-currency – CME’s Melamed. 7/11/2017. https://www.reuters.com/article/cme-group-bitcoin/interview-bitcoin-a-new-asset-class-not-a-crypto-currency-cmes-melamed-idINKBN1D7159
7 The Bitcoin Boom : Asset, Currency, Commodity and Collectible, Aswath Damodoran, le 24/10/2017. http://aswathdamodaran.blogspot.fr/2017/10/the-bitcoin-boom-asset-currency.html
8 Cryptocurrencies like Bitcoin are commodities, Federal Judge says. Here’s why that matters. David Mayer, 07/03/2018. http://fortune.com/2018/03/07/bitcoin-cftc-commodities-coin-drop-markets/
9 Analyses réalisées sur R studio des corrélations sur les rendements journaliers sur l’année 2017. Les données financières ont été extraites de Bloomberg pour les actifs traditionnels et Kaggle pour les crypto-actifs.
10 Matrice des correlations des rendements journaliers. Les cases colorées représentent une forte corrélation (positive, c’est-à-dire évoluant dans le même sens, ou négative – évoluant dans le sens contraire). Une case non colorée représente des actifs non corrélés entre eux. A titre d’exemple, le Bitcoin n’est corrélé à aucun actif du monde financier traditionnel.
Les plateformes intégrées de planification financière et de stress test s’imposent comme une révolution des pratiques budgétaires et de gestion des risques. Elles permettent de construire des modèles de projection des résultats établis sur des méthodes statistiques, au même titre que les modèles de risques, permettant d’exploiter au mieux le flux croissant de données disponibles.
La planification financière et les tests de résistance (stress tests) sont deux composantes historiques de la gestion bancaire. La planification financière s’appuie traditionnellement sur des modèles simples déclinés sous la forme d’analyses de création de valeur et d’indicateurs de performance, et repose rarement sur des analyses statistiques. De même, la conduite de stress tests n’est pas un sujet nouveau pour les établissements bancaires français. Les premiers exercices de stress tests apparaissent dès les années 1990, en lien avec le développement de nouveaux outils de gestion du risque tels que la Value at Risk. Les stress tests, mesurant l’impact de scénarios sévères mais plausibles sur la profitabilité et la solvabilité des banques, sont alors menés ponctuellement sur des portefeuilles isolés. Le rôle des stress tests s’est ensuite vu renforcé par la mouvance réglementaire des années 2000 et les accords dits de Bâle II qui les désignent, au sein du Pilier 2, comme un outil de pilotage de la solvabilité des établissements. Depuis les crises financières de 2008 et souveraine de 2011, les régulateurs américains et européens se sont approprié cet outil pour attester à fréquence régulière de la solidité des établissements sous tutelle.
Des modèles de planification et de stress tests imparfaits
Les banques françaises sont donc rompues aux exercices de planification et de stress tests. Néanmoins, les modèles de planification et de stress tests dont disposent les banques présentent encore certaines faiblesses :
– ils reposent significativement sur du dire d’expert et des scénarios extrêmes mis à disposition par le régulateur ;
– ils n’ont pas tous le même degré de sophistication, ni le même niveau de granularité ;
– ils ont été développés de manière indépendante, répondant à différents impératifs réglementaires (ICAAP, ILAAP1, plan de résolution) ou internes (budget) et ne communiquent pas entre eux ;
– le déploiement d’un exercice de planification ou de stress test de bout en bout peut prendre un temps significatif et mobiliser de nombreuses ressources ;
– les équipes centrales disposent rarement de modèles suffisamment poussés pour leur permettre de challenger les remontées métiers.
Un enjeu stratégique
Aujourd’hui, l’enjeu n’est pas tant pour les établissements de mener des projections et des stress tests, que de constituer une intégration stratégique des stress tests dans leur dispositif de gestion des risques et de planification financière. Les banques doivent de manière cohérente exprimer une ambition stratégique, mener leurs projections budgétaires et gérer leurs risques. Les stress tests deviennent, au-delà d’un exercice de mise en conformité réglementaire, un outil de gestion des ressources rares (capital, liquidité) et de pilotage du RONE2 s’intégrant parfaitement dans une gestion optimisée du SREP3. La planification et les stress tests doivent permettre de valider des choix stratégiques et être un outil de communication avec les marchés. Patrick Sommelet, directeur financier délégué à la Société Générale précise ainsi que « l’un des facteurs endogènes les plus importants dans le développement de la plateforme a été la volonté de la direction générale de disposer d’outil permettant de réagir plus rapidement à des chocs d’environnements ».
Les plateformes de planification financière et de stress test, qui sont l’objet de cet article, sont une des réponses à cet enjeu. Elles ont pour but de réunir différents outils d’analyse et différentes ressources pour produire, dans une durée restreinte, les principaux indicateurs de profitabilité et de risque de la banque sur un horizon de trois à cinq ans (voir Schéma 1). Elles constituent ainsi une révolution dans la modélisation du résultat et des risques et s’inscrivent dans un contexte favorable d’émergence de nouvelles technologies et d’une nouvelle culture « data » (voir Schéma 2). Les facteurs clés de succès d’une plateforme de planification et de stress test sont :
– la constitution d’une bibliothèque de scénarios de stress ;
– des modèles robustes paramétrés dans des outils agiles ;
– une gouvernance claire instaurée par le Comité de direction des banques et impulsant une collaboration étroite entre les fonctions Finance et Risques ;
– une utilisation concrète ou insertion opérationnelle des modèles de stress test.
Nous proposons de revenir de manière détaillée sur chacun de ces facteurs.
Utilisations des plateformes de planification financières et de stress test (schéma 1)
L’utilisation de modèles quantitatifs assis sur des analyses statistiques (schéma 2)
1. LA CONSTITUTION D’UNE BIBLIOTHEQUE DE SCENARIOS COHERENTS
La constitution d’une bibliothèque de scénarios cohérents est le point de départ des exercices de modélisation. L’évaluation collégiale des banques (« peer review ») menée par l’Autorité bancaire européenne (EBA) en 2013 a mis en exergue d’importantes limites dans les stress tests menés par les institutions, parmi lesquelles des scénarios de stress insuffisamment pertinents et ne couvrant pas l’ensemble des risques. Le régulateur a notamment mis en évidence les difficultés des banques à modéliser les effets de contagion et de diversification entre risques, ce que confirme Marc Irubetagoyena, responsable du programme de planification financière et de stress test de BNP Paribas : « nous travaillons aujourd’hui à la modélisation des effets de contagion. Néanmoins, ces effets dominos reposent sur l’utilisation de probabilités conditionnelles dont le calibrage suppose l’accumulation d’un nombre significatif de données rendant l’exercice de longue haleine ». La plateforme de planification financière et de stress test participe à remédier à ces lacunes en simulant sous différents scénarios, des projections du compte de résultat et des risques des banques (voir Schéma 3). La première étape de ce processus consiste à se doter d’une bibliothèque de scénarios à sévérité croissante (central, adverse, passage en remédiation).
L’élaboration des scénarios
La construction de chaque scénario est fonction de la nature du stress appliqué. Il est d’usage de distinguer les stress tests historiques, ceux induisant une mise en défaut de l’établissement (ou reverse stress tests) et les analyses de sensibilité (« what if analysis »). Sous un stress historique, la banque établit une liste des crises passées (par exemple le Brexit, la crise des subprimes ou l’éclatement de la bulle internet du début des années 2000) et constitue des historiques de données sur ces périodes. Le reverse stress est un procédé différent où l’établissement part de l’identification des principaux facteurs de risque susceptibles de mettre en défaut la banque, desquels sont inférés des éléments déclencheurs de ces risques (drivers) et donc un scénario. L’analyse de sensibilité est un exercice au style plus libre, où le périmètre d’application du stress et son intensité sont décidés par l’établissement.
La définition des briques constituant chaque scénario est ensuite déterminante. Marc Irubetagoyena évoque « la taxonomie des scénarios » et rappelle « qu’il est essentiel, pour assurer l’homogénéité des scénarios, d’en définir des dimensions précises communes », parmi lesquelles :
– l’intensité du stress : les plateformes intégrées de planification financière et de stress test ont pour première vocation de communiquer une trajectoire du bilan et des métriques de la banque en scénario central, puis une ou plusieurs trajectoires stressées ;
– le périmètre considéré : une des avancées des plateformes intégrées est de pouvoir réaliser dans un temps réduit une projection et un stress de l’ensemble des activités de la banque. Cependant, la modélisation d’une activité particulière est toujours possible. L’EBA incite en ce sens les banques à conjuguer stress globaux et locaux ;
– l’horizon du stress : sur un stress couvrant l’ensemble des activités de la banque, l’horizon du stress sera généralement de trois à cinq ans. Néanmoins, l’horizon dépend du calcul considéré : les stress de liquidité ont généralement des horizons d’un mois à un an tandis que les stress liés à la solvabilité des établissements s’appliquent sur trois ans ou plus ;
– le type de scénario : stress macroéconomique lent ou plus rapide, stress idiosyncratique ou combiné ;
– la source des données utilisées : les plateformes intégrées cherchent à produire une projection objective, si bien que les données disposant d’une justification statistique sont privilégiées. Elles peuvent être complétées au besoin par du dire d’expert. Les données incluent les données macroéconomiques (croissance du PIB, taux de chômage, etc.), bancaires (taille du marché des crédits immobiliers, taux de rémunération des dépôts, etc.) et idiosyncratiques (propres à un établissement ou une activité).
La construction de scénarios cohérents implique par ailleurs la prise en compte de boucles de rétroaction entre les différentes typologies de risques (liquidité et crédit, crédit et marge d’intérêt par exemple) et combiner des effets macroéconomiques et des chocs sur des portefeuilles spécifiques.
D’un point de vue opérationnel, la définition des scénarios de stress s’inscrit dans les processus d’identification et d’évaluation des risques des banques. Les scénarios doivent ainsi inclure un stress des variables jouant sur le déclenchement d’événements de risques probables et intenses relevés dans le processus de cartographie des risques. Par exemple, si la banque identifie un risque de défaut sur ses contreparties établies en Turquie, le scénario de stress peut se traduire par une hausse des spreads corporate turcs ou une baisse du PIB turc couplée à une hausse du chômage. Les exercices de stress test et d’identification des risques sont de fait interdépendants. Les stress tests permettent également d’affiner l’appétit au risque des banques. Marc Irubetagoyena précise que « les stress tests permettent d’éprouver les seuils d’alerte ou limites de risque, entraînant parfois leurs recalibrages ».
Trois difficultés à surmonter
De notre expérience, trois difficultés doivent être surmontées pour rendre efficiente la construction de bibliothèques de scénarios de stress :
– la première difficulté réside dans la définition d’une probabilité d’occurrence de chaque scénario. S’il est important de disposer d’un nombre significatif de scénarios, il est aussi important de pouvoir déterminer un classement des quelques scénarios les plus probables afin d’estimer les impacts moyens attendus ;
– le deuxième obstacle réside dans la difficile industrialisation de la production des scénarios de stress. À ce titre, BNP Paribas a lancé un projet sur les générateurs de scénarios économiques, en coopération avec l’École Polytechnique, dont l’objectif est de constituer une base de modèles
– enfin, la définition des scénarios doit être approuvée par les plus hautes instances de la banque, afin d’apporter de la crédibilité à l’exercice.
2. LE DEVELOPPEMENT DES MODELES : UN PROJET COMPLEXE
Les modèles développés dans le cadre des plateformes intégrées sont principalement les modèles de projection statistique des volumes d’activité, de marge d’intérêt et de commissions, les banques disposant déjà de modèles de risques conçus dans le cadre de travaux comptables ou réglementaires. Ces nouveaux modèles de projection du produit net bancaire répondent au souhait du régulateur d’éprouver la robustesse des plans stratégique et financier. Selon Teresa Mora Grenier, directrice du contrôle de gestion chez Natixis : « Le régulateur encourage le développement de modèles quantitatifs s’appuyant sur des travaux statistiques permettant d’isoler les principaux drivers des modèles d’activité bancaires et de réaliser des stress tests à la demande ». Les équipes de la BCE se dotent d’ailleurs elles aussi de modèles calibrés sur les données transmises par les établissements, d’où la nécessité d’agir pour les banques.
Les travaux menés dans le cadre des modèles s’articulent autour des problématiques suivantes : définir le bon niveau de granularité ; définir des méthodes de projection et identifier les drivers ; procéder à des projections statistiques ; assurer l’articulation des différents modules de calcul.
Définir le bon niveau de granularité
La définition du niveau de granularité modélisé par les plateformes de planification et de stress test est une étape importante. Les lignes métiers souhaitent généralement réaliser des projections de niveau fin sur des sous-portefeuilles, tandis que les équipes centrales réalisent des projections « top-down » visant à donner une trajectoire globale du bilan et des performances de l’établissement. Ces deux objectifs complémentaires peuvent inciter les établissements à construire des modèles au niveau le plus fin, puis à procéder à une consolidation. La construction des modèles à un niveau trop granulaire complexifie néanmoins la construction, la maintenance et l’utilisation des outils.
Il s’agit donc de définir une granularité intermédiaire permettant une mise à jour des projections rapide, et constituée de modèles avancés et granulaires sur les métiers et les agrégats les plus critiques en termes de pilotage (par exemple les activités de marché, la marge nette d’intérêts, partie cyclique des commissions et coûts). Des discussions avec les métiers en amont des travaux statistiques permettent de valider le niveau de granularité et facilitent le processus de modélisation.
Définir des méthodes de projection et identifier les drivers
Les travaux de segmentation des activités et de définition du niveau de granularité permettent de construire des modèles de projection à partir de réalités business cohérentes. L’étape suivante consiste alors à projeter les volumes, puis la marge d’intérêt et les commissions sur ces segments. Les projections s’appuient sur des familles de modèles complémentaires incluant, pour la projection des volumes, des régressions statistiques, les modèles de réplication communiqués par l’ALM mais aussi des modèles analytiques plus simples (si une partie des coûts peut faire l’objet d’analyses plus poussées, les modules de bonus par exemple sont souvent purement analytiques).
Sur certains pans d’activité, la projection des volumes s’appuie sur des benchmarks ou des projections de marché externes complétant les modèles quantitatifs.
Pour d’autres activités, une modélisation de la taille globale du marché ajustée de l’ambition de conquête de la banque peut être adoptée, notamment sur les activités pour lesquelles la part de marché des différents acteurs est connue (conseil en fusions/acquisitions, ECM DCM etc.) ou pour les activités suivies par les organismes de statistiques nationaux (montant de production de crédit, pools de dépôts, etc.).
La projection « déterministe » des modèles doit être complétée d’ajustements managériaux. Ces derniers permettent de tenir compte d’inflexions dans la politique de prix ou de conquête commerciale, d’acquisitions ou d’évolutions imprévisibles de l’activité. Cette couche d’ajustements managériaux permet de tenir compte des remarques des métiers et facilite l’insertion de la plateforme.
Si ces méthodes sont complémentaires, il est primordial de conserver une unicité des modèles utilisés pour une métrique et un type d’activité donnés afin de conserver un bon niveau de comparabilité des résultats (modèles de projection de la marge nette d’intérêt (MNI) cohérent sur l’ensemble des métiers banque de détail par exemple).
Procéder à des projections statistiques
Les modèles de volume peuvent s’appuyer sur des méthodes statistiques reposant sur la corrélation historique des volumes projetés et des variables macroéconomiques communiquées par le scénario (modèles de régression et de classification multivariées, linéaires ou non-linéaires).
Lors de la calibration de ces modèles, un compromis est souvent à trouver entre facilité d’implémentation et d’appropriation par les métiers d’une part, et puissance prédictive et robustesse statistique d’autre part. La démarche à mettre en œuvre pour assurer la robustesse statistique du modèle consiste en une approche itérative en trois étapes : collecte et retraitement de la donnée ; détermination des variables explicatives et de l’expression du modèle ; et évaluation de sa performance.
Les transformations mathématiques des séries de données peuvent améliorer la qualité des modèles à tester. La pertinence de ces transformations doit être évaluée à l’aune de la représentativité business d’éléments dits exceptionnels et de la complétion de données manquantes.
Le choix de la forme des modèles statistiques est d’abord fonction de la qualité et de la profondeur des données récoltées. Par exemple, les données doivent être suffisamment profondes pour représenter différentes situations économiques (expansion, crise) et différents contextes de taux (taux bas par exemple). Ensuite, les modèles linéaires sont privilégiés pour leur appropriation plus aisée. Des régressions quantiles peuvent éventuellement être utilisées en situation de stress. Les méthodes d’apprentissage automatique permettent d’orienter le choix des variables, même si ces dernières méthodes ne sont généralement pas retenues in fine du fait de leur complexité et parfois du manque de profondeur d’historique disponible.
Afin d’être homologué par le régulateur et les équipes d’audit de modèles internes à la banque, le pouvoir prédictif des modèles doit ensuite être vérifié par un ensemble de tests. Notons que l’exigence de vérification de ces tests est à pondérer par la qualité de la donnée disponible et le jugement expert indispensable à la modélisation de certains postes de P&L – frais de gestion ou commission non financières par exemple. Les établissements doivent conserver les résultats de l’ensemble des tests réalisés car ils constituent un élément clé de l’audit des équipes des différents régulateurs.
Assurer l’articulation des différents modules de calcul
Une fois les modèles de volumes, de marge nette d’intérêt et de commissions développés, la plateforme intégrée de planification et de stress test doit assurer le lien entre les différents modules de calcul (P&L, risques, liquidité).
Assurer une cohérence des projections des volumes d’activité, des marges commerciales et des risques (coût du risque, créances douteuses, emplois pondérés) est un sujet historiquement complexe pour les établissements. En effet, les systèmes d’information sont généralement spécifiques à chaque métier et s’appuient sur des référentiels de données non harmonisés.
En cela, les plateformes intégrées de planification et de stress test constituent une véritable avancée. Pour assurer l’unicité des données utilisées par les plateformes, certaines banques ont par exemple lancé la construction de bases de données (« datawarehouse ») partagées par l’ALM, les Risques et la Finance qui viennent se déverser dans les différents modules de calcul de la plateforme. Une fois alimentées de données, les plateformes assurent la communication entre projection du bilan, des indicateurs de profitabilité et des emplois pondérés. À ce titre, la projection du bilan devient la pierre angulaire d’un système arborescent qui permet la projection des revenus (marge d’intérêt et commissions) et la production des métriques de risques et de liquidité sur la base d’encours communs. La croissance du bilan commercial permet en effet de faire croître les expositions au défaut (EAD) utilisées pour le calcul du coût du risque et des emplois pondérés. La projection du bilan commercial sert aussi de base à l’obtention du bilan de liquidité.
La projection du bilan s’interface donc avec les modules de calcul. Des boucles de rétroaction peuvent être également prises en compte. Les flux de passage en défaut calculés dans le module de calcul du coût du risque peuvent être réintégrés au bilan, puis pris en compte dans le cadre du calcul de la marge nette d’intérêt. La projection des générations de nouvelle production peut permettre le calcul de commissions sur nouvelles productions.
3. UNE GOUVERNANCE FORTE : UN FACTEUR CLE DE SUCCES
La mise en place d’une gouvernance claire est un élément clé du bon fonctionnement des plateformes intégrées de planification et de stress tests, comme l’a rappelé récemment l’EBA en publiant le 19 juillet dernier son rapport final sur les bonnes pratiques en matière de stress tests.
Le programme doit obtenir le soutien de la direction générale des établissements, responsable de sa mise en application et de sa performance. La gestion du projet (regard critique sur les scénarios retenus, les principales hypothèses de modélisation, échanges avec les métiers, etc.) peut être déléguée à des managers séniors en charge de rédiger des normes et des procédures documentant les travaux menés. Teresa Mora Grenier « insiste sur l’importance de co-construire ces modèles avec les opérationnels pour faciliter leur intégration dans le processus d’animation de la performance dès la genèse du projet ».
Pour assurer l’efficacité du programme, la communication doit être verticale, depuis le comité de direction jusqu’aux lignes métiers, mais également horizontale. Cette communication horizontale peut se traduire par une communication entre lignes métiers, qui permet par exemple d’assurer une homogénéité des modèles de projection retenus. La communication horizontale peut également se manifester à l’intérieur même d’une ligne métier par un renforcement des liens entre les équipes chargées de la finance, de la gestion du capital et de la liquidité lors de la conception des modèles ou de périodes de production.
Un choc culturel pour la fonction Finance
Rebattant les cartes d’un jeu où la planification est traditionnellement le domaine de la Finance et les stress tests des Risques, les plateformes intégrées de planification et de stress test constituent un choc culturel pour la fonction Finance. Les fonctions Risques sont en effet habituées à s’appuyer dans leurs analyses sur des modèles quantitatifs développés dans le cadre de Bâle III ou de la mise en application d’IFRS 9. Si la fonction Finance dispose généralement de modèles d’analyse des indicateurs de performance, la culture de la modélisation statistique y est souvent moins développée. Pourtant, les modèles PPNR4 développés aux États-Unis et les dernières recommandations de l’EBA sur la modélisation des commissions mettent en lumière la nécessité de développer des modèles économétriques de projection du produit net bancaire et des frais. En ce sens, les compétences quantitatives dont disposent les fonctions Risques peuvent venir soutenir la Finance.
Des équipes mixtes
La convergence entre la Finance et les Risques peut aussi se manifester, en matière d’organisation, par la mise en place d’équipes mixtes ou « joint-ventures » mêlant des profils issus des risques, de la gestion actif passif et du contrôle de gestion. Ces équipes sont chargées de faire le lien entre les différentes lignes métiers et la direction de l’établissement. La mise en place de ces nouvelles équipes hybrides ne se fait pas sans mal, comme le rappelle Marc Irubetagoyena : « Le rassemblement au sein d’une joint-venture de profils aux cultures différentes est un mal nécessaire. Il constitue une réunion d’expertises capable de traiter des enjeux complexes et d’attirer de nouveaux talents ». Constituer une équipe centrale en charge de la planification et des stress tests permet de gagner en efficacité opérationnelle en réduisant les délais de production (voir Schéma 3).
Un processus global d’identification des risques (schéma 3)
4. UTILISATION CONCRETE
La création d’une plateforme de planification financière et de stress tests n’est pas un exercice « hors sol » de modélisation mais constitue avant tout une refonte des processus, et de l’organisation de la banque. Patrick Sommelet insiste : « dès cette année, le processus budgétaire a été amendé, et le modèle y a été intégré. La gouvernance évolue et le poids des modèles quantitatifs dans les exercices de planification ne va cesser de croître ». Dans ce contexte, nous identifions les fonctions principales de ces plateformes.
Répondre à une demande spécifique de la direction générale ou du régulateur. Les plateformes intégrées de planification financière et de stress test révolutionnent les pratiques budgétaires en réduisant le « dire d’expert » et les temps de production. Elles permettent de constituer des trajectoires financières assises sur les variables économiques et des modèles. Ceci répond aux attentes des régulateurs américain et européen exprimées respectivement dans le cadre du CCAR5 et des stress tests EBA. Elles permettent également de répondre rapidement aux demandes de simulation de la direction générale, en produisant des analyses traçables et itératives.
Faciliter la couverture des exigences de stress testing et de simulation ad hoc. Les plateformes intégrées sont des outils agiles permettant la réalisation de différents stress tests (budgétaire, réglementaire) et travaux réglementaires (ICAAP, ILAAP, travaux liés aux plans de résolution). En 2018, le volet commissions des stress EBA a par exemple été réalisé en totalité via des versions tactiques des plateformes par deux grandes banques de la place. Un autre établissement français a utilisé la plateforme intégrée dans ses travaux en lien avec le Brexit. Ces outils centraux limitent les dépendances dans les processus de production et les coûts de production des reportings. Les plateformes s’intègrent donc dans cette revue des processus au point d’être devenu l’un des quatre piliers du SREP.
Renforcer le pilotage stratégique et financier. Les plateformes de planification financière et de stress test réalignent la feuille de route stratégique, la planification du capital ainsi que son allocation et le plan de financement, en cohérence avec l’appétit pour le risque de l’entreprise. Elles permettent un pilotage fin, cohérent avec le cycle économique, et offrent des possibilités de simulation ad hoc combinant des impacts variés (effets croisés : volumes de NPL et MNI, remboursements anticipés et commissions…). Elles permettent enfin d’appréhender les enjeux de recalibrage du business mix en ligne pour maximiser le RONE, avec une capacité accrue d’identification de leviers de croissance et d’optimisation.
Démontrer la valeur ajoutée des modèles de planification. Le régulateur insiste fortement sur la capacité des établissements à démontrer l’utilisation et la valeur ajoutée de leurs modèles de planification, utilisant notamment les notions d’insertion opérationnelle ou usages (use tests). Dans cette perspective, la formation des équipes à ces nouveaux outils est un bon indicateur. L’utilisation, en première approche, de ces nouveaux outils comme challenger models de méthodes de planification historiques peut être également un premier pas vers l’usage cible des plateformes.
5. UNE ETAPE DE PLUS DANS LE PROCESSUS D’INTEGRATION DE LA DONNEE À LA PRISE DE DECISION
La naissance des plateformes intégrées de planification financière et de stress test marque une étape importante sur le chemin de l’évolution des pratiques budgétaires et de gestion des risques. Les modèles de projection des résultats sont désormais établis sur des méthodes statistiques, au même titre que les modèles de risques, permettant d’exploiter au mieux le flux croissant de données. Les établissements ont pris conscience de la valeur ajoutée que peut constituer l’exploitation de données fiables et toujours plus abondantes. Cet élan, doit permettre de soutenir les projets permettant d’enrichir et de fiabiliser la donnée jusqu’à automatiser les chaines d’analyses dès aujourd’hui car ces programmes prennent du temps.
Les modèles de résultats et de risques sont également interconnectés et appellent de nouvelles synergies entre les équipes Finance et Risques (voir Schéma 4). Néanmoins, les défis restent encore nombreux. On peut citer :
– la modélisation et l’allocation analytique des charges d’exploitation ;
– la connexion de la démarche budgétaire des banques aux processus de vente et aux outils marketing. L’intégration de la demande est encore loin d’être gérée par les outils.
Le chemin de l’évolution des plateformes est donc encore semé d’embûches.
Les plateformes de planification financière et de stress test (schéma 4)
Article disponible sur www.revue-banque.fr et le numéro d’ocobre de Revue Banque.
1 Internal Capital Adequacy Assessment Process ; Internal Liquidity Adequacy Assessment Process.
La technologie blockchain a des impacts multiples sur la structuration et l’organisation de la vie économique. Nous pouvons apprécier et appréhender son impact à travers une analogie entre blockchain et Internet. L’apparition d’Internet a permis à un certain nombre d’acteurs nouveaux d’émerger, comme les GAFA1, dont le modèle économique repose sur une utilisation pleine et entière d’Internet, faisant d’eux des pure players. Néanmoins, on ne peut résumer l’impact d’Internet à leur apparition : chaque entreprise de l’économie traditionnelle a pu s’appuyer sur Internet pour créer de nouveaux usages (commandes en ligne par exemple) ou améliorer les processus internes (réduction du coût de la communication grâce aux vidéoconférences par exemple).
La technologie blockchain peut donc avoir un impact sur la vie économique avec la même ampleur qu’Internet : d’une part, des pure players, dont le modèle économique s’appuie sur une utilisation pleine et entière de la technologie vont émerger. D’autre part, les entreprises traditionnelles vont pouvoir développer de nouveaux usages et améliorer les processus internes.
L’écosystème se structure autour deux axes : le niveau de décentralisation et la complexité des cas d’usage.
– L’axe horizontal mesure le niveau de décentralisation de l’organisation qui permet globalement de distinguer les acteurs centralisés des acteurs plutôt décentralisés. Les acteurs les plus centralisés sont ceux utilisant des blockchain permissives ou privées ainsi que ceux gravitant autour de l’écosystème blockchain sans en utiliser la technologie. Les acteurs les plus décentralisés sont ceux utilisant des blockchain publiques2.
– L’axe vertical mesure la complexité du cas d’usage du produit proposé, qui permet de distinguer les acteurs en amont de la chaîne de valeur de l’écosystème et ceux en aval. Le point de rupture entre l’amont et l’aval de l’écosystème étant l’usage ou non de Smart Contract.
Le croisement de ces deux axes nous permet de cartographier quatre familles d’acteurs :
– Les facilitateurs d’appropriations ; – Les process winners ; – Les crypto-monnayeurs ou blockchain 1.0 ; – Les dapps ou blockchain 2.0.
Cartographie des acteurs dans leur écosystème
1. LES FACILITATEURS D’APPROPRIATION
De façon générale, ces acteurs peuvent être comparés aux vendeurs de pelle lors de la ruée vers l’or.
La catégorie des facilitateurs d’appropriation rassemble les acteurs qui proposent un service ou un produit en lien avec l’écosystème de la blockchain. Ces acteurs sont donc peu décentralisés, puisque reposant sur une organisation traditionnelle, et situés en amont de la chaîne de valeur selon le critère de différenciation défini précédemment. Ils sont considérés comme des facilitateurs d’appropriation et de pénétration de la technologie puisqu’ils participent directement au développement et à la sécurisation de l’écosystème. Dans cette catégorie, nous distinguons quatre sous-catégories d’acteurs : les accompagnateurs, les échangeurs, les régulateurs et les coffres-forts.
2. LES PROCESS WINNERS
Les process winners sont les acteurs qui considèrent la technologie blockchain comme un moyen d’améliorer un certain nombre de processus internes des entreprises de l’économie traditionnelle en y apportant de l’automaticité, de la transparence et de la sécurité. Cela permet d’actionner deux leviers de croissance : celui de l’augmentation des revenus et celui de la réduction des coûts. Parmi ces initiatives, certaines sont menées par des acteurs de l’économie traditionnelle qui veulent s’approprier la technologie blockchain via de l’investissement en recherche et développement, des partenariats ou des acquisitions ; d’autres le sont par des startups appartenant à l’écosystème blockchain.
3. LES DAPPS ET LES BLOCKCHAINS NOUVELLE GENERATION
La catégorie des crypto-aps’ est un ensemble plus vaste et plus complexe que celle des crypto-monnayeurs. En effet, elle rassemble les acteurs en aval de la chaîne de valeur, dont les usages dépassent largement le purement monétaire, et porte en germe un changement radical de paradigme économique. Comme nous l’expliquions précédemment, la technologie blockchain a ouvert la voie à la token economics où une entreprise propose un service et une crypto-monnaie permettant d’acheter ce service. Elle devient, par conséquent, à la fois une entreprise de l’économie traditionnelle dont le modèle économique repose sur le bien ou service vendu et en même temps une banque centrale qui émet sa propre monnaie.
Cette topographie distinguera donc d’une part les acteurs fournissant une infrastructure aux crypto-aps’ (les ChainProducers) et ceux utilisant cette infrastructure pour développer des applications et des usages (les ChainUsers).
4. LES CRYPTO-MONNAYEURS OU LES BLOCKCHAINS 1.0
Les crypto-monnayeurs ou les blockchains 1.0 sont les acteurs qui ont développé des protocoles décentralisés et s’appuyant sur les couches technologiques les plus en amont de la chaîne de valeur et d’innovation de la technologie blockchain, à savoir les couches ledger (registres) et de transaction. Elles permettent de proposer un usage de la technologie blockchain uniquement centré autour de la monnaie. Les crypto-monnayeurs regroupent l’ensemble des acteurs ayant développé des crypto-monnaies concurrençant plus ou moins directement le Bitcoin, chef de file de cette catégorie. Notons que les projets appartenant aux crypto-monnayeurs sont ceux qui, chronologiquement, sont apparus les premiers3.
Pour cartographier la catégorie des crypto-monnayeurs, deux axes d’analyse sont proposés.
Le premier axe, celui des horizontaux, est la vitesse de transaction : plus une monnaie propose une vitesse de transaction élevée, plus elle peut se substituer aux monnaies fiduciaires qui, en pratique, ont une vitesse de transaction nulle. En effet, il est difficile d’imaginer une adoption massive des crypto-monnaies comme moyen de paiement pour les micro-transactions, s’il est nécessaire d’attendre 10 minutes pour que la validation soit effective, comme c’est le cas actuellement pour le Bitcoin. Pour améliorer la vitesse de transactions d’une crypto-monnaie, plusieurs leviers sont possibles :
– réduire le temps de validation des blocs ;
– augmenter la taille des blocs et donc le nombre de transactions pouvant y être enregistrées ;
– alléger/modifier le protocole de validation.
Dans ce qui suit, le volume de transactions – ou scalabilité – fera référence à un nombre de transactions par seconde4 que l’on pourra comparer aux moyens de paiement actuels (comme Visa qui peut supporter plusieurs milliers de transactions par seconde). Avant de détailler les solutions permettant d’améliorer la rapidité des transactions, rappelons qu’avec la manière dont ont été construites les crypto-monnaies, il existe un compromis presque inevitablentre vitesse et sécurité. Si l’on prend le cas du Bitcoin, sa sécurité provient du fait que son algorithme de consensus, le proof-of-work, permet, comme nous l’expliquions précédemment, d’avoir une sécurité qui tend vers l’infini avec une altération des données historiques impossible. Cette sécurité est garantie par le temps de validation choisi par son créateur, de l’ordre de 10 minutes. Si l’on réduit ce temps de validation la sécurité en patirait puisqu’il serait plus facile de modifier l’historique des transactions. Pour dépasser ce compromis, des projets tentent d’imaginer de nouveaux moyens de validation.
Le deuxième axe, celui des verticaux, est le niveau de confidentialité : une monnaie dont le niveau de confidentialité est total n’aura pas nécessairement le même usage qu’une monnaie avec un niveau de confidentialité moindre. Les monnaies ayant un niveau de confidentialité moindre, ou pseudo-anonyme, sont des monnaies où, à chaque wallet, est associé un montant connu de tous sans qu’on connaisse l’identité de celui qui le détient. C’est le cas, par exemple, du Bitcoin. Ce type de monnaie propose un usage similaire à celui de la gestion d’un compte en banque où on échange des sommes d’argent via des virements5.
Les monnaies ayant un niveau de confidentialité important, ou parfaitement anonyme, sont des monnaies où l’on ne connaît ni le montant associé à chaque wallet ni l’identité de celui qui détient le wallet. Ce type de monnaie propose un usage similaire à celui qu’on peut avoir de l’argent liquide et s’applique ainsi plutôt au micropaiement. Comme le cas d’usage de ces monnaies est centré autour de la notion d’argent liquide et d’anonymat, il n’est pas à exclure qu’elles puissent favoriser certaines transactions illégales comme l’achat d’armes ou de drogues.
Ces deux axes font apparaître trois catégories que nous détaillerons dans ce qui suit :
– Bitcoin and its fellows(Le Bitcoin et ses dérivés) ; – DarkWeb money(les solutions confidentielles) ; – High Tech’ money.(les solutions de dernière génération)
Bitcoin and its fellows
Le Bitcoin étant la première crypto-monnaie, sa technologie présente des limites que certains projets ont cherché à dépasser. Le code source du Bitcoin est open source, c’est-à-dire complètement libre d’accès en ligne. Les projets de cette catégorie se sont contentés de repartir du code source et de modifier des paramètres, à la marge. À cet égard, on peut parler de code is business puisque le code est adapté pour répondre à un besoin du marché. Les principales modifications concernent le temps de validation et la taille des blocs. Parmi les plus connues, citons le Litecoin, le Bitcoin Cash, et le Dogecoin.
Le temps de validation d’un bloc pour le protocole Bitcoin est de 10 minutes environ. Si l’on rapporte ce temps de validation par bloc en équivalent transactions, on estime que le protocole Bitcoin permet d’en valider 3 par seconde environ, contre 2 500 pour Visa. Pour obtenir une validation plus rapide des transactions, le protocole Litecoin, qui s’appuie sur le protocole Bitcoin, propose une validation de bloc toutes les 2 minutes 30 environ6.
Le protocole DogeCoin propose de son côté une validation de blocs toutes les minutes environ. L’objectif du DogeCoin est ainsi de devenir la monnaie de pourboires d’Internet : un utilisateur ayant bien aimé une vidéo ou un tweet pourrait laisser quelques DogeCoins, dont la valeur est avant tout symbolique7. Le projet Dogecoin est à l’origine une plaisanterie dont le but est de montrer la facilité avec laquelle on peut créer une crypto-monnaie à partir du code source Bitcoin. Néanmoins, cette plaisanterie a reçu un accueil favorable de la communauté blockchain.
La taille maximale d’un bloc pouvant être validé par le protocole Bitcoin a été fixée par ses créateurs à 1 Mo. Cette limite peut avoir comme conséquence de saturer le réseau, ce qui entraîne un allongement du temps de transaction. L’augmentation de la taille maximale d’un bloc a longtemps fait l’objet de discussions entre les mineurs du réseau. Aucune position ne permettant de concilier les deux clans, un fork définitif a eu lieu au début du mois d’août 2017. Il a donné lieu à la création du protocole Bitcoin Cash qui permet de porter la taille maximale d’un bloc pouvant être validé à 8 Mo. Il est intéressant de noter que, jusqu’à la date de leur séparation (1er août 2017), les deux protocoles possédaient le même historique de transactions8.
Les monnaies anonymes
Les monnaies complètement anonymes répondent à un besoin non adressé jusqu’à présent par les crypto-monnaies : le cash digital9. Elles s’inspirent également du code source du Bitcoin, mais changent plus radicalement sa philosophie en incluant cette notion de pur anonymat. Parmi les plus connues, citons le Dash, le Zcash, le Monero, et le Verge. Si les niveaux de confidentialité proposés sont très adaptés aux transactions illégales, et notamment du dark web, en réalité ce besoin dépasse largement ce cadre.
Le protocole Bitcoin assure un certain niveau de confidentialité à ses utilisateurs grâce à l’existence des clés privées et publiques. Il a néanmoins été pensé pour que l’on puisse accéder au registre des transactions et connaître, via la clé publique, l’origine des fonds transférés, le montant et le destinataire. C’est le principe même du protocole Bitcoin : être un registre distribué dont l’ensemble des transactions passées est consultable à n’importe quel moment et par n’importe qui.
Le protocole Dash a pour ambition d’être une monnaie équivalente au cash mais digitalisée10. Pour cela, son créateur, Evan Duffield, a imaginé deux technologies venant se superposer au protocole Bictoin : l’InstantSend qui propose une transaction de manière immédiate et PrivateSend qui propose aux utilisateurs qui le souhaitent une confidentialité totale quant aux transactions11.
Le protocole ZCash propose, grâce au concept de la preuve sans connaissance (zero knowledge proof), une monnaie où l’anonymat des transactions est total. Ainsi, en utilisant le Zcash, un utilisateur peut choisir de cacher l’origine, le montant et le destinataire de la transaction. Néanmoins, grâce au concept de preuve sans connaissance, le protocole ZCash permet de garantir que l’événement (la transaction) a bien eu lieu sans fournir d’informations à son sujet (origine, destination, montant12).
Le protocole ByteCoin repose sur la technologie CryptoNote. Il n‘est donc pas un fork du Bitcoin mais créée une blockchain nouvelle. L’intérêt de la technologie CrytpoNote est de proposer un niveau de confidentialité élevé ainsi qu’un temps de transaction d’environ 2 minutes13. Notons que de nombreuses autres monnaies sont nées d’un fork du ByteCoin, comme le Monero(qui modifie des caractéristiques de l’augmentation de la vitesse du minage, et utilise une technique dite one time pour les adresses publiques ce qui rend impossible de tracer le solde d’un compte14).
Le Verge propose « une protection de notre intimité digitale » grâce à l’utilisation de réseaux multiples axés sur l’anonymat, comme Tor et i2p où les adresses IP des utilisateurs sont complètement cachées et par, conséquent, les transactions sont intraçables.
Les monnaies high-tech
Les monnaies High Tech’ visent à dépasser assez largement le protocole du Bitcoin ; elles proposent des usages nouveaux des crypto-monnaies tout en apportant des réponses technologiques aux principales critiques et/ou limites du BItcoin, à savoir :
– son manque de scalabilité ;
– ses frais de transaction qui peuvent s’avérer élevés ;
– le problème de la consommation d’énergie liée au proof-of-work.
Parmi ces initiatives, citons les plus connues : le Iota, le Nano et le OmiseGO.
Le Iota est une monnaie qui diffère totalement, sur un plan technologique, du protocole Bitcoin. En effet, elle a pour objectif de se passer du principe de bloc, pourtant fondamental pour une blockchain, au profit d’une dislocation des nœuds de validation. C’est une monnaie qui s’applique aux objets connectés. L’idée est de mettre à disposition la petite puissance de calcul, embarquée dans chaque objet connecté, pour valider les transactions, confondant ainsi la notion de mineur et d’utilisateur du réseau. Dès lors, il n’est plus nécessaire de concaténer l’ensemble des transactions dans un bloc pour les valider. Le nom de ce mécanisme est le Tangle qui s’appuie sur un Directed Acyclic Graph (graphe orienté acyclique) pour enregistrer les transactions15.
Le Nano, anciennement connu sous le nom de Railblock, est assimilable au Iota dans le sens où le concept de mineur et d’utilisateur est plus ou moins confondu16, mais il ne s’applique pas aux objets connectés. Son cas d’usage est concentré sur une efficacité maximale autour des transactions : elles se valident en 2 secondes, sans frais de transaction et avec une scalabilité présentée comme infinie17.
Le OmiseGO est une monnaie particulièrequi s’appuie, elle, sur la blockchain Ethereum pour être déployée et pourrait être, à ce titre, assimilée à une crypto-aps’ (cf. ci-dessous). Nous faisons cependant le choix de la classer dans la catégorie des crypto-monnaies, puisque son cas d’usage est essentiellement centré sur les paiements à partir des applications ou sites Internet. OmiseGO propose une technologie de stockage et de transfert d’argent en temps réel qui est agnostique aux juridictions, aux organisations et au type de monnaie traitée – monnaie traditionnelle et crypto-monnaie confondues. Le token OmiseGO n’est pas, à la différence des monnaies citées précédemment, un moyen d’échange, mais il est utilisé pour valider des transactions et permet d’obtenir des remises et/ou des récompenses lorsqu’on passe par lui pour effectuer un règlement.
5. CONCLUSION
En conlusion, la catégorie des crypto-monnayeurs rassemble les acteurs ayant développé des crypto-monnaies à usage purement monétaire. Ils ont souvent créé des initiatives dérivant légèrement du code source du protocole Bitcoin en y incorporant de légères modifications sans changer fondamentalement le produit proposé même si certaines crypto-monnaies ont été créées avec des changements plus importants dans les protocoles comme le ZCash ou le Bytecoin.
Résultat : on compte aujourd’hui plus d’une trentaine de crypto-monnaies à usage purement monétaire. Nous avons donc fait le choix de limiter les exemples à celles ayant les capitalisations boursières les plus importantes (en fin d’année 2017). Comme nous l’expliquions précédemment, il n’est pas à exclure que l’émergence des crypto-monnaies ait fait naître, presque ex nihilo, un grand nombre de monnaies concurrentes dont la viabilité à long terme est faible. Elles fournissent néanmoins un exemple de la théorie des monnaies concurrentes de Hayek : la sélection des bonnes et de mauvaises monnaies sera faite, sur le long terme, par les choix des consommateurs.
Les crypto-monnaies évoquées précédemment se répartissent donc de la manière indiquée sur le graphique suivant. Notons que la taille des bulles représente la capitalisation boursière, calculée comme le nombre de monnaies en circulation multiplié par le prix unitaire. Nous avons retenu les données au 31 décembre 2017. Les transactions sont exprimées en transactions par seconde avec une échelle logarithmique.
Répartition des monnaies selon leur niveau de confidentialité et leur vitesse de transaction
2 En réalité, tous les acteurs utilisant des blockchain publiques n’ont pas le même niveau de décentralisation. En effet, le niveau de décentralisation d’une entreprise dans l’écosystème blockchain se définit essentiellement par le rôle que joue le token dans son modèle économique. Un niveau de décentralisation élevée implique un token garantissant un alignement d’intérêts maximisé au sein de l’écosystème créé, en l’absence d’intervention directe de tiers centralisé. A contrario, un niveau de décentralisation plus faible s’explique par l’intervention d’un acteur centralisé dans la circulation des crypto-actifs. Contrairement aux idées reçues, le lien direct entre nouveaux acteurs blockchain et décentralisation est loin d’être automatique.
3 Le projet IOTA est apparu plus tardivement que les autres mais propose un cas d’usage particulier de sa crypto-monnaie puisque uniquement centré sur les objets connectés.
4 La notion du nombre de transactions par seconde ne doit pas être confondue avec celle d’immédiateté des transactions.
5 Cet usage pourrait être utilisé par des entreprises commerciales s’effectuant des virements réguliers de montants importants nécessitant donc une sécurité maximale.
9 Cette affirmation peut paraître contradictoire puisque le titre du whitepaper du Bitcoin est, rappelons-le, A Peer-to-Peer Electronic Cash System. Cependant, pour les raisons détaillées précédemment, nous considérons que l’usage du Bitcoin ne peut être considéré comme similaire à du cash digital.
15 Ce concept est très technique et demande un niveau de maîtrise en mathématiques important pour pouvoir être appréhendé pleinement. Il a été formalisé par Sergei Popov, un mathématicien de renom de l’université Unicamp, au Brésil, membre actif de la communauté des crypto-monnaies. La formalisation est accessible via le lien suivant :
https://iota.org/IOTA_Whitepaper.pdf
16 Le Iota repose sur le Tangle pour ce mécanisme alors que le Nano repose sur le mécanisme dit block lattice ou « bloc tressé », qui reprend néanmoins le principe d’une implémentation d’un graphe orienté acyclique.
Deuxième auteur :
Franck Bancel (Academic Advisor)
Les montants rendus publics à l’occasion des récents transferts de joueurs (Neymar, Mbappé) ont très largement occupé l’espace médiatique des derniers mois. L’importance des sommes affectées aux transferts pose aux financiers la question de leur évaluation. Comment justifier de tels montants ? Répondent-ils à une forme de rationalité économique ou ne sont-ils que l’expression de « l’exubérance irrationnelle » chère à Alan Greenspan et à l’oeuvre cette fois-ci sur le marché des transferts des joueurs ?
Rappelons tout d’abord les facteurs qui conditionnent la valeur financière d’un transfert. En premier lieu, les clubs évaluent le potentiel physique (résistance, vitesse, etc.) et technique (passes décisives, tacles, etc.) d’un joueur. Par ailleurs, certains postes comme les avant-centres sont très recherchés et vaudront donc plus cher, à niveau de performance ou à âge équivalent.
Tout ce qui contribue à la visibilité médiatique du joueur augmentera la valeur de son contrat (sélections en équipe nationale, nombre de « followers » sur les réseaux sociaux, etc.). Ensuite, un transfert repose sur un contrat d’engagement qui est un actif comptable (ce qui est d’ailleurs une des particularités du football). Plus la durée d’engagement figurant dans le contrat est étendue, plus sa valeur sera élevée, car le club dispose de fait d’un droit d’usage plus long.
Enfin, la très forte progression des droits TV dans certains championnats (et notamment le championnat anglais), l’arrivée d’investisseurs internationaux comme le Qatar ou Abu Dhabi et la globalisation de l’économie du football ont créé les conditions pour une inflation des valeurs des transferts des joueurs.
1. PAS DE MODELE CONCLUSIF
La littérature économique et financière propose différentes approches pour estimer la valeur financière des transferts. Certains chercheurs ont tenté d’expliquer les valeurs constatées à partir de quelques variables (âge du joueur, poste, nationalité, performance sportive et extra-sportive, etc.). D’autres ont modélisé l’incertitude associée à la performance sportive future ou encore à la capacité d’un club à exploiter pleinement le potentiel d’un joueur.
Aucune de ces approches n’est pourtant totalement convaincante pour appréhender la globalité du marché des transferts. Trop de paramètres entrent en jeu, car il faut modéliser non seulement les performances sportives et extra-sportives du joueur, les caractéristiques du contrat, mais également les capacités sportives et financières des clubs acheteurs et vendeurs, etc. Tout cela dans un contexte où l’importance des différentes variables change dans le temps.
2. UN ‘MARCHE’ TRES HETEROGENE
Autre difficulté majeure : le « marché » des transferts est très loin d’être homogène. La valeur moyenne d’un transfert se situe à des niveaux très inférieurs à celles des montants communiqués pour les quelques transferts les plus médiatisés. Pour les joueurs « standards » qui représentent la majeure partie des transactions, la théorie financière et les modèles sont relativement performants. Les clubs disposent de nombreux points de comparaison sur le marché des transferts et peuvent utiliser une approche analogique pour les valoriser.
S’agissant des quelques joueurs « stars », il est tout à fait abusif de parler de « marché » au sens où l’entend la théorie financière, du fait de la très grande rareté de ces joueurs et du nombre réduit de clubs acheteurs ou vendeurs. Il devient alors illusoire de valoriser les joueurs « stars » en retenant une approche financière classique.
L’inflation de la valeur des transferts ne bénéficiera pas aux clubs, car les plus-values réalisées devront être réinvesties dans d’autres transferts et en salaires sous peine de voir la performance sportive décliner. Marché peu régulé, afflux de capitaux, ressources rares… sans surprise dans le contexte actuel, seuls les joueurs et leurs agents seront au final les bénéficiaires.
Le football européen repose sur une organisation pyramidale. A la base se trouvent les clubs amateurs de chaque pays, et au sommet, les clubs de première division. Cette représentation dominante repose sur l’idée qu’il existe une certaine « porosité » entre football amateur et football professionnel. Même si cela doit rester un exploit, une équipe de football amateur est supposée pouvoir battre n’importe quel club professionnel, notamment lors des coupes nationales organisées dans les différents pays d’Europe.
Cette structure pyramidale s’oppose au concept de ligue fermée qui caractérise le sport professionnel en Amérique du Nord (NBA, NFL, etc.). Par définition, les équipes engagées dans une ligue fermée ne sont pas concernées par une quelconque relégation en division inférieure. L’organisation des ligues fermées nord-américaines repose sur un ensemble de dispositifs de régulation qui visent à assurer l’équité sportive entre les clubs. A la fin de chaque saison, les meilleurs joueurs universitaires sont ainsi répartis entre les équipes professionnelles par un tirage au sort qui favorise les équipes les moins bien classées (‘draft’).
1. LA LIGUE DES CHAMPIONS, A PREMIERE VUE, OUVERTE…
Les instances européennes du football militent pour le maintien d’un système de ligue ouverte. Ce discours masque cependant une réalité bien différente. Le football professionnel se caractérise aujourd’hui par une concentration des moyens financiers dans un nombre limité de clubs. Ces grands clubs ne sont plus en compétition qu’entre eux, comme c’est le cas dans une ligue fermée.
L’UEFA a pourtant instauré le « fair-play » financier en 2010, mais sans réguler directement les conditions de l’équité sportive. Les grands clubs européens peuvent racheter les joueurs les plus talentueux, entretenir des effectifs pléthoriques, et ils disposent de tous les moyens pour s’assurer une domination sans partage sur le plan sportif.
La Ligue des champions, qui est la plus prestigieuse des compétitions de football en Europe, en est une parfaite illustration. A priori, toutes les équipes engagées en Ligue des champions sont supposées pouvoir la gagner. Cependant, quand on regarde ce qui s’est passé depuis vingt ans, on se rend compte que ce n’est pas la glorieuse incertitude du sport qui domine, mais, au contraire, un renforcement significatif de la place de certains pays et de certains clubs.
2. MOINS DE PLACE POUR LES PETITES NATIONS
Selon une étude Accur’League, entre 1995 et 2001, 25 % des quarts de finalistes de la Ligue des champions ne faisaient pas partie des clubs des cinq grands championnats (Allemagne, Angleterre, Espagne, France et Italie). Depuis 2002, ce pourcentage moyen n’est plus que de 13 %.
Au niveau des demi-finales, la présence d’un club d’un « petit » pays relève désormais de l’anomalie statistique (depuis 2005, seul le PSV Eindhoven a atteint ce stade de la compétition). Les moyens financiers nécessaires pour être compétitif en Ligue des champions sont hors de portée de la plupart des clubs. Ainsi, si l’on observe le chiffre d’affaires des clubs ayant participé à la compétition sur les dix dernières éditions, on constate qu’il s’établissait en moyenne à 248 millions d’euros pour les huitièmes de finale, 348 millions d’euros pour les demi-finales et 379 millions euros pour le vainqueur.
A partir de 2018, les quatre pays les mieux classés à l’indice UEFA (Espagne, Royaume-Uni, Allemagne et Italie) bénéficieront automatiquement de quatre engagés. Cette réforme diminuera encore les risques de non-participation pour les clubs de ces quatre pays qui pourront procéder à des investissements toujours plus importants.
3. CONCLUSION
La Ligue des champions s’apparente déjà à une ligue fermée et cette tendance devrait encore se renforcer dans les prochaines années.
Autres auteurs :
Franck Bancel (Academic Advisor)
Bruno Belgodere (Director of Economics Affairs of Premiere Ligue)
D’un point de vue financier, investir dans un club de Ligue 1 n’est pas si irrationnel. Plus le budget est important, moins le risque est élevé.
Le secteur du football est régu lièrement présenté comme un exemple « d’exubérance – irrationnelle » du point de vue de ses pratiques financières (rémunération des joueurs, montant des transferts, etc.). Les clubs de football sont souvent décrits comme peu performants dans leur gestion financière et comme des entités opaques et risquées.
Pourtant, malgré cette image peu flatteuse, l’attractivité du secteur ne se dément pas. De grands clubs européens ont ainsi été acquis par des investisseurs de diverses nationalités, qui ont investi des sommes importantes : Manchester City, Chelsea, le PSG et plus récemment l’Olympique de Marseille, racheté par l’investisseur américain Franck McCourt.
1. LES RESULTATS SPORTIFS, SEUL VRAI RISQUE
Le club de football serait-il la « danseuse » du financier du XXI siècle ? Une des manières de faire avancer ce débat serait de mesurer les risques pris par les financiers quand ils investissent dans le football. Quels sont ces risques ? Peut-on les quantifier ? Est-il envisageable de s’en prémunir ? Existe-il des gisements de valeur dans les clubs qui sont aujourd’hui sous-estimés ?
La réponse à la première question est la plus simple : pour un club de football, le risque est avant tout sportif. Un club qui « sous-performe » sur un plan sportif devra assumer, l’année suivante, une baisse de ses revenus et de ses ambitions. Sur le long terme, l’absence de résultats sportifs dégrade progressivement la valeur de la marque. Ce risque sportif n’est pas le même pour tous les clubs, c’est une évidence.
2. LA PERFORMANCE, INTIMEMENT LIEE AU BUDGET
En revanche, ce qui est plus surprenant, c’est l’ampleur des écarts entre les clubs. Nous avons ainsi pu mesurer la corrélation entre le risque sportif (et donc les revenus) des clubs de Ligue 1 et leur budget. Ainsi, aucun club dont le budget est supérieur à 100 millions d’euros n’a été, durant les dix dernières années, relégué en Ligue 2.
The football sector is regularly portrayed as an example of ‘irrational exuberance’ with regard to its financial practices (player remuneration, prices of transfers, etc.). Football clubs are often described as underperforming in their financial management and as opaque and risky entities.
However, despite this unflattering image, the appeal of the sector is undeniable. Investors of diverse nationalities have invested significant sums to acquire large European clubs: Manchester City, Chelsea, Paris Saint-Germain, and more recently Olympique de Marseille, bought by the American investor Franck McCourt.
Les clubs présentant les budgets les plus importants ont seulement 8 % de risque d’être classés entre la 10e et la 17e place
Les clubs présentant les budgets les plus importants ont seulement 8 % de risque d’être classés entre la 10 et la 17 place, 65 % de chance de se qualifier pour la Ligue des champions et 23 % de se qualifier pour la Ligue Europa. A l’autre extrême, un club dont le budget est inférieur à 40 millions d’euros a 22 % de risque d’être relégué en Ligue 2, 4 % de chance de se qualifier en Ligue Europa et seulement 1 % en Ligue des champions.
Dit autrement, le budget conditionne les résultats sportifs et on observe que cette tendance s’est significativement renforcée au cours des dernières années avec l’arrivée d’investisseurs et l’accroissement des droits télévisuels. Le budget total de la Ligue 1 est ainsi passé en dix ans de 850 millions d’euros à environ 1,5 milliard d’euros, permettant à quatre clubs d’avoir un budget supérieur à 100 millions d’euros en 2015.
3. ECART SUPPORTABLE
Par ailleurs, les clubs de Ligue 1 disposent de réserves de valeur importantes. En 2015, la majorité des clubs de Ligue 1 (15 clubs) ont un écart entre la valeur de marché et la valeur comptable de leur et la valeur comptable de leur effectif compris entre 2 et 15. Cette réserve de valeur s’explique en partie par le fait que de nombreuses équipes détiennent un centre de formation performant et sont capables d’éduquer des joueurs de premier plan dont la valeur n’apparaît pas dans les comptes.
Investir dans le football n’est donc pas complètement irrationnel d’un point de vue financier. Le risque est quantifiable et, par ailleurs, très fortement corrélé au budget. En Europe, la Ligue 1 dispose d’un important potentiel de développement et a vocation à continuer à attirer des investisseurs. Au total, avec un risque de mieux en mieux appréhendé et maîtrisé par les financiers, le football est un territoire qui leur reste encore à défricher, toujours à la recherche de nouvelles opportunités d’investissement.
Please note that this website uses cookies to improve your experience. AcceptRead More
Privacy & Cookies Policy
Privacy Overview
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.