Métavers : prévenir les risques, saisir les opportunités

Pour la première fois, Accuracy a accueilli des acteurs publics, privés et associatifs pour un séminaire national inédit organisé par La Place Stratégique, Gendarmerie Nationale, et Observatoire des métavers. Plusieurs tables rondes ont été proposées sur des sujets clés du métavers :

• L’importance du métavers aujourd’hui et dans le futur
• Les risques potentiels de cette nouvelle technologie
• L’encadrement de l’usage du métavers
• Le commerce dans le métavers

A cette occasion, Jean Barrere, associé chez Accuracy, a répondu à nos questions.

Accuracy nomme quatre nouveaux associés

Accuracy, le cabinet de conseil international indépendant, renforce sa partnership avec la nomination de quatre nouveaux associés. Cela porte le nombre total d’associés d’Accuracy à 62, répartis dans 13 pays.

Accuracy conseille Gi Group Holding

Accuracy a conseillé Gi Group Holding dans le cadre de son acquisition d’Eupro Holding AG, la holding d’un groupe leader de sociétés basées en Suisse (“Eupro”) et spécialisées dans le secteur du recrutement et des ressources humaines.

Accuracy Talks Straight #6 (FR)

Pour notre sixième édition de Accuracy Talks Straight, Jean Barrère introduit le thème de la data, avant de laisser Romain Proglio nous présenter Wintics, le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. Nous analyserons ensuite la data en Chine avec Frédéric Recordon et Helena Javitte.
Sophie Chassat, Philosophe et associée chez Wemean, posera la question de si la data a une conscience. Ensuite, nous évaluerons notre patrimoine de données avec Isabelle Comyn-Wattiau, Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’Information. Enfin, nous nous focaliserons sur la double transition énergétique et digitale avec Hervé Goulletquer, Senior Economic Advisor.


SOMMAIRE


Edito

Jean Barrère
Associé, Accuracy

Pour un débat sur la data

Comme le fit Victor Hugo pour les travailleurs de la mer, il faut commencer par un hommage appuyé à tous les travailleurs de la data.

Observons le Chief Data Officer structurer la distinction fondamentale entre « donnée brute », « information » et « connaissance », et nous interpeller sur le caractère ô combien complexe du passage d’une catégorie à l’autre.

Voyons le CIO mobiliser des technologies exponentielles à travers des plateformes connectées pour valoriser en accéléré l’actif informationnel de l’organisation.

Un instant. Apprécions la grâce d’un geste baudelairien. Le Data Scientist infuse de l’art dans la data, « vous m’avez donné de la boue, et j’en ai fait de l’or », dit-il !

Reprenons de la vitesse avec le décideur, à l’affût d’un avantage informationnel, et embarquons avec le dirigeant. Sur une mer agitée, il engage son organisation dans des transformations data driven difficiles !

Si le DRH est sommé de créer des parcours dédiés pour attirer et fidéliser ces profils rares, le financier s’interroge lui sur les multiples formes de valeur de la data : valeur de marché, valeur patrimoniale, valeur économique… Comment évaluer cet actif intangible ?

Avançons et applaudissons ! Sur le devant de la scène, le politique pose des limites au tout numérique, et arrange ce qui est dérangé du fait de l’utilisation de nos data privées !

Place à la pensée. Derrière le rideau, le philosophe dérange l’arrangé de nos vies numériques, et questionne l’Être-Data : le numérique est-il désormais le langage de la vérité ? Tout vécu humain est-il traduisible sous la forme de 0 et de 1 ?

Quand un sujet si protéiforme comme celui de la data mobilise autant de profils et de savoirs, de capital et de liquidité, d’intelligence et de technique, de matière à dire et à contredire, quand de cette dialectique naît tant de richesses et de nouvelles formes de vivre-ensemble, c’est qu’il y a là, au fond, un débat essentiel qu’il s’agit de faire vivre.


Romain Proglio
Associé, Accuracy

Wintics

Créée fin 2017 par trois fondateurs, et forte de quatre années de R&D, Wintics se positionne comme le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. La société commercialise ses produits d’analyse auprès de quatres types de gestionnaires d’infrastructures de mobilité : collectivités territoriales, gestionnaires de transport en commun, aéroports, ports. Pour les collectivités territoriales, la start-up a développé un logiciel d’Intelligence Artificielle particulièrement innovant (appelé Cityvision), qui peut se brancher automatiquement à n’importe quelle caméra, optique ou thermique, récente ou d’ancienne génération, afin d’en extraire de multiples données sur la mobilité, la sécurité des espaces publics et la propreté urbaine. Le logiciel sera par exemple capable d’analyser la fréquentation et les usages d’une piste cyclable afin d’aider la ville à aménager sa mobilité en conséquence.

La solution offre également à ses clients la capacité de piloter en temps réel l’infrastructure, par exemple en déversant dans les feux tricolores les données collectées et analysées par Wintics, ce qui participe à fluidifier le trafic de manière précise et pertinente.

A destination des gestionnaires de transport, Wintics offre la possibilité de visualiser en temps réel les flux de déplacement et le niveau d’affluence. Les gestionnaires d’aéroports, quant à eux, peuvent par exemple superviser les différents flux de passagers arrivant sur site et fluidifier leurs parcours au sein de l’aéroport grâce à un pilotage en temps réel des files d’attente aux guichets et aux contrôles. Wintics se positionne ainsi comme une solution innovante et stratégique afin de rendre les villes plus vertes en favorisant l’essor et l’aménagement des mobilités douces, l’attractivité des transports en commun et la fluidification des déplacements. La caméra devient un outil de pilotage et d’urbanisme efficace et plus sûr. Enfin, Wintics est une société intégralement française, qui propose une solution 100% made in France.

Lauréats des éditions 2018 et 2019 du programme d’innovation de la ville de Paris, certifiés par le label Greentech Innovation et ayant intégré en 2020 les meilleures start-up d’Intelligence Artificielle en Europe dans le secteur de la mobilité, les experts de Wintics (environ 15 aujourd’hui) ont déjà à leur actif des réalisations dans plus de 30 villes françaises.


Frédéric Recordon
Associé,
Accuracy

Helena Javitte
Manager,
Accuracy

La data, ultime raison de s’intéresser à la Chine ?

Pour quelles raisons faudrait-il encore s’intéresser à la Chine ? Les signaux qu’elle envoie d’un pays cadenassé, tenté par un repli sur soi, affirmant un modèle sociétal alternatif, conduisent désormais à l’appréhender sous l’angle d’une analyse de risques. Les dernières études des chambres de commerces européennes et américaine en Chine témoignent d’une réévaluation significative des stratégies des entreprises étrangères1.

Et pourtant dans ce contexte assombri, pour nous qui travaillons en Chine depuis plus de 10 ans, la Chine est un pays qui mérite l’attention des Européens. Mais les raisons les plus pertinentes de s’y intéresser ne sont pas forcément celles qui viennent à l’esprit en premier. Certaines pourraient même s’avérer dérangeantes. Et si la Chine était en avance sur l’Occident ? En avance dans les réflexions qui structurent le monde de demain ? A défaut d’un eldorado mercantile… des idées !

A la source de l’avance chinoise se trouve la donnée. Le pays dispose de nombreux atouts. Structurel : 18% de la population mondiale offre une masse de test inégalable. Conjoncturel : sa réglementation ou encore l’abondance des investissements dans la tech. Culturel : le lancement de solutions quick & dirty qui seront améliorées ou abandonnées là où les occidentaux s’efforceront de lancer des produits plus aboutis.

Cet article se propose de scruter sous 3 angles la manière dont la Chine considère la donnée. (1) Comment elle la réglemente pour en faire un avantage concurrentiel. (2) Comment elle est au coeur de la transformation du retail. (3) Comment elle l’utilise pour créer de nouveaux business modèles.

1. UNE RÉGLEMENTATION FAVORISANT L’ÉMERGENCE D’UN AVANTAGE CONCURRENTIEL

Les 1ères réflexions sur les données comme facteur de product ion ont commencé en Chine au début des années 2000 et se sont poursuivies au cours de la décennie suivante par l’édification d’un cadre réglementaire favorisant l’émergence d’un marché des données. Le tournant s’est produit en avril 2020 lorsque la donnée a été of ficiellement considérée comme le 5ème facteur de production, au même titre que le capital, la main d’oeuvre, le foncier et la technologie.

C’est l’acte de naissance d’une économie des données conçue comme l’accélérateur disruptif de la croissance des entreprises chinoises.

Les autorités encouragent les acteurs à structurer leurs données pour en faciliter le partage. Pour cela, le gouvernement a mis en oeuvre des plateformes publiques. Dès 2019, la SASAC, organe gouvernemental qui supervise les entreprises publiques, a publié une liste de 28 entreprises publiques et privées chargées de fédérer leurs industries au moyen de plateformes sectorielles.

La China Aerospace Science & Industry Corp. a la charge de l’aéronautique, la CSSC de la construction navale ou encore Haier via sa plateforme COSMOPLAT de 15 secteurs différents (électronique, fabrication industrielle, textile, industrie chimique, etc…).

Le second objectif vise à créer un marché des données. Conduit par les collectivités locales (Shanghai, Pékin, Shenzhen, Hainan, Guangzhou), il prend la forme de zones de libre-échange et de plateformes pilotes de trading de données. Ainsi, le Shanghai Data Exchange Center (SDEC) s’apparente à une bourse technologique garantissant la conformité juridique des transactions pour les entreprises adhérentes là où le Beijing International Big Data Exchange favorise le partage des données publiques au niveau national avec des velléités d’applications internationales.

Ces initiatives montrent que la Chine a commencé à poser les bases de l’économie de la donnée. Elle tâtonne, expérimentant des réponses à cette question cruciale entre toutes : comment transformer la donnée en un nouvel objet de valeur ? Un premier défi réside dans la multitude de données : personnelles, financières, industrielles, métadonnées, etc. tout autant qu’aux formats souvent incompatibles.

Leur standardisation et leurs protocoles d’échanges sont des enjeux cruciaux de leadership dans le monde de demain. En parallèle se pose la question de leur valorisation. La SDEC travaille actuellement sur ces questions de propriété, d’origine, de qualité, de certification et de fixation de leur prix.

On le comprend la Chine s’est engagée dans une réflexion sur ce nouvel actif qu’est devenue la donnée. Elle procède par touches successives avec les acteurs économiques privés et publics à mesure que se construit un champ des possibles gigantesque.

2. LA DONNÉE, AU COEUR DE LA TRANSFORMATION DU RETAIL

« Aujourd’hui nous ne savons pas monétiser la donnée mais nous savons que les gens ne vivront pas sans données. Walmart génère des données de ses ventes tandis que nous faisons du e-commerce et de la logistique pour acquérir de la donnée.

Les gens me parlent de GMV2 mais la GMV n’est pas ce que nous cherchons. Nous vendons simplement pour acquérir de la donnée, et c’est bien différent de Walmart »3.

Voici en quelques mots de Jack Ma, fondateur d’Alibaba, exposée la différence fondamentale entre la Chine et l’Occident.

LÀ OÙ NOUS VOYONS DANS LE E-COMMERCE UN CANAL SUPPLÉMENTAIRE DE DISTRIBUTION, LES CHINOIS Y VOIENT UN GISEMENT DE DONNÉES.

Si la comparaison des chiffres combinés du Black Friday, Thanksgiving et Cyber Monday aux Etats-Unis (25 milliards de dollars) au Double 11 chinois (139 milliards de dollars)4 montre une avance significative de la Chine, elle ne rend absolument pas compte de cette différence de philosophie.

Le fait que la Chine soit beaucoup plus connectée que les sociétés américaine et européenne, que 99,6% des internautes chinois accèdent à internet depuis leur smartphone masquent l’essentiel.

Se limiter à des analyses quantitatives revient à méconnaître la nature disruptive du retail chinois. Les géants du e-commerce ont créé les solutions de paiement innovantes entraînant leur mainmise sur le retail et leur leadership sur le paiement mobile.

Ceci explique la croissance fulgurante du retail qui repose sur une approche fondamentalement différente des acteurs traditionnels. Alibaba offre l’exemple le plus abouti avec son concept de New Retail défini en 2015.

Deux caractéristiques façonnent ce modèle :

(1) Alibaba se positionne avant tout comme un intermédiaire facilitant les échanges entre marchands et clients ; et

(2) Alibaba a modelé un écosystème holistique, chaque segment se nourrissant et nourrissant les autres grâce aux données créées par cet écosystème transactionnel.

Intermédiaire : Alibaba propose aux marchands ses outils digitaux de branding, génération de trafic, etc… tout autant que ses services financiers très appréciés des PME délaissées par les banques. Vis-à-vis des consommateurs : Alibaba met à leur disposition une plateforme universelle pour tous leurs besoins quotidiens : lien social, opérations administratives, prêts à la consommation, etc.

Alibaba se distingue donc profondément de ses équivalents occidentaux. Le 1er opère un écosystème dont l’objet est de produire, analyser et monétiser des données tandis que les seconds restent encore malgré leurs dernières évolutions (cloud, etc…) des distributeurs intégrés dont les données sont une résultante.

Pour Alibaba, le retail est un support, nullement une raison d’être. Son leadership repose moins sur sa GMV que sur sa position centrale dans la génération et l’exploitation des données. Que de chemin parcouru depuis la déclaration de Jack Ma le 16 juin 2016 lors de la China Internet+ Conference 中國互聯網+峰會, Alibaba « ne sait pas monétiser ses données » !

Depuis lors, l’entreprise, entrevoyant d’immenses perspectives bien au-delà de ses revenus actuels, a étoffé son écosystème et ses services. Là se trouve sans nul doute la nouvelle frontière.

3. LA DONNÉE, SOURCE DE NOUVEAUX BUSINESS MODÈLES

Si l’exemple du New Retail illustre cette capacité de la Chine à faire pivoter une industrie de la vente de biens à la monétisation de ses données, le développement spectaculaire des véhicules électriques met en lumière sa capacité à créer ex-nihilo des business modèles innovants.

C’est l’exemple des stations de charges électriques.

Une station de charge électrique diffère d’une station d’essence essentiellement sur deux aspects. D’abord le temps de charge incite les usagers à charger à domicile ou sur leur lieu de travail ce qui se traduit par des taux d’utilisation très faible (inférieur à 5%) des bornes se trouvant dans les espaces publics. Ensuite le prix de l’électricité étant strictement encadré, les marges des opérateurs très faibles s’avèrent insuffisantes pour rentabiliser les investissements.

La solution chinoise a consisté à déplacer le centre d’intérêt du conducteur (point focal du modèle Essence) vers l’écosystème électrique.

Pour être performant un opérateur chinois se conçoit comme une plateforme de services pour les conducteurs, les fournisseurs d’emplacements (i.e. promoteurs), les municipalités dans leur politique de la ville, les électriciens, etc…

Il ne s’agit plus seulement de vendre de l’énergie mais d’optimiser des flux et des prix : trafic automobiles, flux énergétiques, etc… Le point central est une nouvelle fois la donnée.

La start-up X-Charge 智充科技, spécialiste des services SaaS B2B, que notre bureau de Pékin connait bien pour avoir travaillé avec elle, est emblématique de cet te révolution des business modèles.

Elle permet aux opérateurs de stations de charge d’analyser en temps réel leurs données, d’ajuster leurs tarifs par borne en fonction du taux d’utilisation et du trafic routier, de stocker l’électricité aux meilleures conditions et de la revendre aux électriciens ou aux gestionnaires d’immeubles lors de pics, etc… La start-up a développé des modèles prédictifs d’activité et de revenus très appréciés des opérateurs. Nulle surprise que Shell Ventures ait investi lors de sa Série-B ; au-delà d’un investissement financier c’est bien un modèle disruptif que la Major est venue chercher en Chine.

De toute évidence, la course pour construire le monde de demain a commencé et la Chine semble bien décidée à établir son leadership à travers une innovation pilotée par l’Etat et relayée par les géants de la tech. Dans cette stratégie, la donnée est clairement considérée comme un actif clé.

Elle est conçue pour asseoir la place future du pays dans le monde. Parallèlement la monétisation des données génèrera des revenus gigantesques que seuls quelques acteurs maitriseront suffisamment pour maximiser leurs gains.

Dans certains secteurs, seule la monétisation de la donnée peut, au moins en phase transitoire, rendre viable des business modèles très capitalistiques. Pour toutes ces raisons, il nous parait essentiel de s’intéresser à ces sujets et pourquoi pas de s’inspirer de certaines initiatives de la Chine.

____________

1 La dernière étude en date est celle de la Chambre de Commerce et de l’Industrie France Chine CCIFC conduite du 2 au 14 septembre 2022 avec 303 entreprises françaises répondantes ; 79% considèrent une détérioration de l’image de la Chine, 62% voient leurs profits affectés, 58% revoient leur stratégie d’investissements en Chine ; 43% ne prévoient pas d’accroître leur présence dans les 3 prochaines années ; 16% envisagent une réduction de leur présence en Chine
2 GMV : Gross Merchandise Value, volume brut de marchandises
3 Discours de Jack Ma lors de la China Internet+ Conference (中國互遜國+痢全) le 16 Juin 2016
4 Données 2021, sources : Forbes, Bloomberg


Sophie Chassat
Philosophe, Associée chez Wemean

Zombie Data

“Is Data conscious?” Cette question, posée à propos d’un personnage de la série Star Trek, est reprise par le philosophe David Chalmers dans son dernier ouvrage “Reality +”1. Data est le nom d’un androïde. Dans l’épisode de la série intitulé “The Measure of a Man”, un procès a lieu pour déterminer si Data est un être intelligent et conscient.

Pas de doute sur l’intelligence du robot humanoïde : Data a la capacité d’apprendre, de comprendre et de gérer des situations nouvelles. En revanche, la question de savoir si Data est conscient reste sans réponse. Data disposet-il d’une vie intérieure avec des perceptions, des émotions et des pensées conscientes ? Ou Data est-il ce que les philosophe appellent un « zombie » ? En philosophie, un zombie est un système qui, extérieurement, se comporte comme un être conscient, mais qui, intérieurement, n’a aucune expérience consciente. Il se conduit de manière intelligente, mais n’a ni vie intérieure ni réflexivité de ses faits et gestes.

Chalmers part de ce récit pour se demander si un système digital peut être conscient ou si seuls les êtres humains et les animaux sont doués de conscience. Pour ce philosophe australien décoiffant, un système simulant parfaitement le fonctionnement d’un cerveau pourrait être conscient au même titre qu’un cerveau biologique. Ce qui l’entraîne vers de vertigineuses spéculations : mais alors, en miroir, notre conscience actuelle ne serait-elle pas elle-même l’effet d’une simulation ? Ne vivrions-nous pas déjà dans un métavers et notre Dieu ne serait-il pas un ordinateur ?

Si nous faisons de l’histoire du bien nommé Data une allégorie, nous pouvons l’utiliser pour nous poser une question éthique simple lorsque nous exploitons des data. À quel type de data avons-nous affaire : Zombie Data or Conscious Data ? Dans le premier cas, nous récoltons des data qui semblent se comporter intelligemment mais dont in fine le contenu est vide et sans intérêt. Expérience commune : quelle masse de data pour parfois si peu d’enseignements utiles, voire des usages absurdes ! Ajoutons que ces data nous transforment nous aussi en zombies… Car nous voilà réduits à des agrégats de comportements extérieurs (achats effectués, mots-clés tapés sur des moteurs de recherche, conversations sur les réseaux sociaux etc.) censés résumer nos désirs intérieurs – lesquels sont tout de même un peu plus subtils. Zombie Data make Zombie People!

En ce qui concerne les Conscious Data, il est aujourd’hui certain que le Big Data n’a pas la conscience des systèmes que Chalmers juge tout à fait plausible à terme. Reste alors aux consciences extérieures humaines à donner du sens aux data, à les humaniser. Un peu comme l’androïde Data a besoin d’un ami humain pour évoluer : c’est le rôle du Captain Picard dans Star Trek. Conscious People make Conscious Data!

____________

1 David J. Chalmers, “Reality +. Virtual worlds and the problems of philosophy”, Penguin Books/Allen Lane, 2022. Non encore traduit en français.


Isabelle Comyn-Wattiau
Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’information

Evaluer notre patrimoine de données, un défi auquel aucune entreprise ne peut échapper

Evoquer la valeur de la donnée en 2022, à l’heure où les media regorgent d’exemples d’entreprises qui subissent des préjudices liés aux données, voilà qui est contre-intuitif. Pourtant, cette valeur est bien connue et c’est même la raison pour laquelle les attaques visant les données ne sont pas uniquement des malveillances. Elles visent de plus en plus souvent à prendre possession du patrimoine informationnel de ces organisations.

La sécurité de la donnée peut être déclinée selon le triptyque : disponibilité, confidentialité, intégrité. Mettre à mal un système d’information en compromet la disponibilité et donc met en danger le processus que ce système sous-tend. C’est encore ce qu’on a pu constater à l’hôpital de Corbeil-Essonnes ces derniers mois. Faute de disposer des données liées au patient, le processus de diagnostic et de soins est rendu plus long et plus coûteux. Il peut même impacter la santé du patient en retardant la mise en oeuvre d’un traitement. Mais, lors de ces attaques, on craint aussi la rupture de la confidentialité de données hautement sensibles.

Enfin, si, d’aventure, les pirates informatiques en venaient à modifier ces mêmes données, ils pourraient en compromettre l’intégrité. Ainsi, ce sont les trois pans de la sécurité de la donnée qui sont impactés avec des dommages très nombreux : d’abord la santé du patient, mais aussi la réputation de l’hôpital et enfin les coûts liés à la remise en état du système d’information et de tous les processus impactés. Se limiter à la sécurité de la donnée est une approche défensive réductrice même si on ne peut l’écarter. Evaluer la valeur de la donnée est un enjeu de taille pour la plupart des entreprises. La presse publie quotidiennement des réussites de start-ups où une bonne idée de partage, de mise en commun d’une information très opérationnelle conduit à une valeur nouvelle insoupçonnée. Ainsi, en 2021, la capitalisation boursière de Facebook atteignait environ 1 000 milliards de dollars, mais la valeur nette de l’entreprise fondée sur l’actif et le passif n’était que de 138 milliards de dollars3. La différence en termes de valeur s’explique par les données que Facebook collecte auprès des utilisateurs et qu’elle utilise à son tour pour alimenter ses algorithmes publicitaires. Pour les économistes, les données constituent un actif non rival (au sens où elles peuvent être consommées par plusieurs sans diminuer), qui ne se déprécie pas nécessairement quand on l’utilise et peut, au contraire, être génératrice de nouvelles informations, par exemple combinée à d’autres. Pour certaines d’entre elles, la valeur se déprécie très rapidement. Toutes ces caractéristiques en font un actif très spécifique qui ne ressemble pas totalement à aucun autre actif intangible, marque, logiciel, brevet, etc.
Aborder la valeur de la donnée nécessite aussi de s’entendre sur le vocabulaire : donnée vs. Information. Sans rouvrir le débat sur la différence entre donnée et information, on peut dans une première approche du sujet les considérer comme identiques. Certains vont cependant distinguer la donnée, entrée du système, non modifiable, résultat de la mesure d’un phénomène de l’information, sortie du système après nettoyage, traitement, affinage, transformation, etc.

La valeur de l’information a été étudiée en cohérence avec lespratiques comptables notamment par Moody et Walsh2. Ils se sont efforcés de démontrer d’abord que l’information peut être considérée comme un actif : elle offre un service et un avantage économique, elle est contrôlée par l’organisation et elle est le résultat de transactions passées. Ils proposent ensuite trois approches d’évaluation de la valeur de l’information. La première est fondée sur les coûts, d’acquisition, de traitement, de conservation, etc. C’est la plus facile à mettre en oeuvre puisque ces éléments sont peu ou prou présents dans les tableaux de bord du contrôleur de gestion. Cependant, ils ne reflètent pas toutes les dimensions de la donnée, par exemple l’évolution de sa valeur dans le temps. La seconde est fondée sur le marché et consiste à évaluer la valeur que l’on pourrait obtenir en vendant cette donnée.

On parle de valeur d’échange. Cette approche requiert un effort conséquent. De plus, il n’est pas toujours possible d’obtenir une mesure fiable de la valeur de cette donnée. Enfin, la troisième est fondée sur l’utilité. Il s’agit d’évaluer la valeur d’usage de la donnée en estimant la valeur économique qu’elle permettra d’obtenir en tant que produit ou en tant que catalyseur. Mais cette valeur est difficile à anticiper et la part de son effet catalytique est aussi très complexe à estimer.

Il apparait ainsi que les nombreuses approches d’évaluation de la valeur de la donnée sont partielles mais complémentaires. Les unes sont fondées sur la valeur d’usage ou la valeur d’échange de la donnée. D’autres font l’hypothèse d’un compor tement rationnel des entreprises et évaluent la donnée au niveau de l’investissement consenti pour l’acquérir et la gérer tout au long de son cycle de vie. Enfin, les approches fondées sur les risques voient la donnée comme l’objet de menaces pour l’entreprise ou l’organisation. Il peut s’agir de risque opérationnel : ainsi, la donnée manquante ou endommagée met en cause le fonctionnement de certains processus. Mais il y a aussi les risques légaux ou réglementaires puisque de plus en plus de textes régissent les obligations à respecter en matière de données. Le Règlement Général sur la Protection des Données n’en est qu’un exemple, le plus démocratisé sans doute. Les risques peuvent aussi être d’ordre stratégique quand ils concernent la réputation de l’entreprise ou conduisent celle-ci à prendre de mauvaises décisions. Enfin, certains auteurs ont adopté une approche par les externalités pour les données ouvertes qui sont a priori disponibles pour tous mais qui, par leur bonne valorisation, peuvent apporter un bénéfice pour la société dans son ensemble.

Le concept de la valeur de la donnée est à relier à l’objectif de sa bonne gouvernance : maximiser la valeur de la donnée en minimisant les risques et les coûts qui lui sont associés1. En adoptant ce triptyque, valeur, risque et coût, on peut mieux appréhender une vision holistique de la valeur de la donnée et améliorer son évaluation. Ces trois dimensions valeur, risque et coût sont complémentaires mais ne nous permettent pas d’exclure le contexte. Ainsi, la même information n’a pas la même valeur selon le contexte temporel, géographique, économique, politique dans lequel le processus d’évaluation s’inscrit. Il faut répondre à la question du pourquoi de l’évaluation pour pouvoir caractériser les éléments per tinents du contexte : politique, économique, social , technologi que, écologique et légal (PESTEL) notamment. L’objet lui-même de l’évaluation doit être précisé. Une des difficultés dans l’estimation de la valeur de la donnée est de choisir la granularité adéquate : s’agit-il de l’ensemble d’un système d’information (le système d’information client) ou d’un jeu de données (la base de données des clients) ou encore d’une information clé (le prix de lancement du produit concurrent) ? Il est clair que la valeur d’un système d’information n’est pas la simple agrégation de la valeur de ses composants.

Il existe peu d’approches d’évaluation de la valeur de la donnée qui soient suffisamment holistiques et générales, permettant une application à tout type de donnée dans n’importe quel contexte. Des recommandations existent comme, par exemple, celle de choisir entre une approche descendante et une approche ascendante. Au contraire, l’approche holistique ne peut l’être qu’en combinant ces deux parcours de la valeur.

C’est parce que l’entreprise est encore incapable de mesurer la valeur réelle et potentielle des données qu’elle n’investit pas suffisamment dans la gouvernance des données et le partage des informations.

C’est un cercle vicieux puisque cela la rend finalement incapable de réaliser la pleine valeur. Le cercle vertueux peut se bâtir en commençant par les données les plus critiques, par exemple (mais pas nécessairement) la donnée client, et en embarquant progressivement tous les acteurs de la donnée, producteurs, « transformeurs », vendeurs, distributeurs, consommateurs de cette donnée. Ils ont les différents points de vue nécessaires à l’approche holistique.

____________

1 J. Akoka, I. Comyn-Wattiau, « Evaluation de la valeur des données – Modèle et méthode », Actes du 40ème congrès INFORSID (INFormatique des ORganisations et Systèmes d’Information et de Décision), Dijon, 2022.
2 D. Moody, P. Walsh, « Measuring the Value of Information – an Asset Valuation Approach », Actes de la conférence européenne sur les systèmes d’information (ECIS), 1999.
3 A. Neely, « Why You Should Be Treating Your Data As An Asset », Anmut, https://www.anmut.co.uk/why-you-should-betreating-your-data-as-an-asset/


Hervé Goulletquer
Senior Economic Advisor, Accuracy

La double transition énergétique et digitale : Volontarisme pour l’investissement et clairvoyance pour le pilotage macroéconomique

L’économie mondiale est confrontée à de nombreux enjeux. Dans une perspective cour te, un tempo inusité des prix et une dégradation des perspectives de croissance, le tout dans un contexte politique compliqué sur le front intérieur dans de nombreux pays et inquiétant en matière de relations internationales (les comportements de la Russie en Ukraine, de la Chine autour de Taïwan et de l’Iran avec ses voisins arabes) ; dans une perspective longue, le vieillissement démographique concerne beaucoup de régions autour du globe, la « régulation » économique paraît s’éloigner du corpus néolibéral pour revenir vers une approche davantage keynésienne et une double transition, énergétique et digitale, est engagée.

Arrêtons-nous sur ce dernier point. La transition énergétique s’impose. Il y va de la préservation de la planète et de toutes les espèces qui y vivent. Il va falloir « décarboner » l’industrie et les transports, réussir la rénovation thermique des bâtiments et développer à grande échelle les énergies renouvelables. La transition digitale est aussi un impératif. Il s’agit d’un processus continu permettant aux entreprises, aux administrations et aux ménages d’intégrer les nouvelles technologies (par exemple le cloud, l’internet des objets ou l’intelligence artificielle) à beaucoup des aspects de leurs activités. En sachant que les transformations nécessaires ne répondent pas qu’à des problématiques technologiques. Il y a un aspect humain très important, avec des adaptations culturelles et comportementales à mener.

Les montant des investissements en jeu est impressionnant. En s’arrêtant à la seule Zone Euro, retenir une enveloppe annuelle de 500 milliards d’euros par an et ceci pendant de nombreuses années (sans doute plus de 10 ans) ne paraît pas déraisonnable. C’est du moins l’ordre de grandeur auquel on arrive en faisant la synthèse de quelques travaux « dignes de foi ». Cela représente plus de 4 points de PIB !

Les sommes engagées sont d’une telle taille qu’il ne semble pas inutile de s’interroger sur leurs implications macroéconomiques. Proposons un chiffrage prospectif simple à l’horizon 2032. Le point de départ est ce volontarisme en matière d’investissement, lié à la double transition : les « fameux » 500 milliards d’euros par an, qui, en passant d’une référence en monnaie courante à une autre en monnaie constante (celle retenue dans la mesure de la croissance économique – celle du PIB -), deviennent 440 milliards. Les autres éléments de la demande, y compris les dépenses d’investissements hors cette double transition, restent sur la tendance observée au cours des années passées. A un détail près toutefois ; le surcroît d’investissement se traduit par plus d’importations et donc par une réduction de l’excédent extérieur. Nous faisons aussi l’hypothèse qu’aucun choc de prix ou de politique économique n’intervient sur la période.

LE TABLEAU CI-DESSUS REPREND LES PRINCIPALES IMPLICATIONS À PRENDRE EN COMPTE. TROIS D’ENTRE ELLES SONT PARTICULIÈREMENT NOTABLES :

La croissance du PIB atteindrait 1,5% l’an. Si le chiffrage n’apparaît pas a priori exagéré, il faut admettre que le potentiel de croissance est plutôt estimé à 1% l’an. Bien sûr, on peut considérer que l’effort supplémentaire d’investissement contribuera à plus de croissance. Mais à rebours on pourrait défendre l’idée que pour partie au moins cette accumulation nouvelle de capital se substituera à une destruction d’immobilisations devenues obsolètes.

Sans oublier les évolutions démographiques qui envoient un message plutôt défavorable pour ce qui est de la population active (effet à peut-être compenser par un retour à une situation proche du plein emploi).

Bref, une suspicion demeure :

le chiffrage induit par les hypothèses retenues n’est-il pas trop optimiste ?

La part de la consommation des ménages dans le PIB reculerait de 2,5 points sur la période, pour atteindre 49,5%. Le niveau actuel n’est déjà pas très élevé : 52% contre une moyenne de 55% entre 1995 et 2010 (et un point haut à 59% en 1980), période qui a donc été suivie par une décrue progressive.

Avec le changement de « régulation » macroéconomique qu’on voit poindre et qui met l’accent sur une croissance plus inclusive, est-ce bien crédible ?

Si le ratio investissement/PIB doit progresser de près de 4,5 points d’ici à 2032, alors l’épargne devra suivre ; les équilibres macroéconomiques sont ainsi faits ! D’où cela pourra-t-il venir ? En partie d’une moindre épargne européenne se dirigeant vers le reste du monde.

N’avons-nous pas retenu l’hypothèse d’une réduction de l’excédent extérieur ? Pour le reste, il faudra choisir entre un plus grand effort d’épargne des ménages, une augmentation des profits des entreprises et /ou une baisse du déficit des comptes publics.

AUCUNE DES OPTIONS NE VA DE SOI.

La première renvoie à la question de la réduction de la consommation des ménages dans le PIB ; on vient de le voir.

La seconde suggère une nouvelle déformation de la richesse créée en faveur des entreprises. N’est-ce pas contradictoire avec l’air du temps (nouvelle « régulation », dont le développement des critères ESG – Environnement, Social et Gouvernance -) ?

La troisième semble raisonnable, bien sûr ; mais comment choisir entre repli des dépenses courantes et hausse des prélèvements (l’investissement public serait très certainement « sanctuarisé ») ? Si ce scénario n’est pas celui de l’inacceptable, mais apparaît tout de même un peu « mal foutu », alors, il faut essayer de concevoir ce qui serait raisonnable d’anticiper sous les deux contraintes de réussir la double transition et de ne pas s’illusionner de trop sur les performances à venir en termes de croissance économique.

En fait, l’ajustement ne peut porter que, soit sur l’épargne placée dans le reste du monde (la contrepar tie de l’équilibre du compte des biens et services avec l’extérieur), avec la possibilité que les flux s’inversent et que la Zone Euro doive « importer » de l’épargne étrangère, soit sur un ralentissement des dépenses de consommation (qu’il s’agisse des ménages et/ou des administrations).

La première solution fragiliserait l’Europe sur la scène internationale.

Macroéconomiquement, elle apparaîtra moins solide, ce qui renforcera l’impression déjà tirée de la microéconomie (moindre rentabilité des entreprises du « vieux continent » par rapport à celles du « nouveau monde » et moindre présence dans les secteurs d’avenir) et de la politique (les problématiques non résolues de l’intégration et du rôle géopolitique).

Comment ne pas considérer alors que les équilibres financiers apparaitront plus incertains, qu’il s’agisse du niveau des taux d’intérêt ou du taux de change ?

La seconde idée, qui évidemment rime avec frugalité, semble difficile à mettre en place, dans un environnement à la fois plus keynésien et marqué du sceau de l’ambition d’un partage de la richesse plus en faveur des ménages. A moins que les pouvoirs publics trouvent la martingale pour inciter ceux-ci à épargner davantage.

On le comprend ; l’ambition de pousser les feux de l’investissement, pour des tas de bonnes raisons, a des effets macroéconomiques déstabilisants. Il faut anticiper et s’y préparer ; mieux vaut prévenir que guérir…


Lire la cinquième édition de Accuracy Talks Straight >

Accuracy conseille Boralex

Accuracy a réalisé les travaux de due diligence financière pour Boralex dans le cadre de son accord avec Energy Infrastructure Partners pour accompagner la mise en œuvre de son Plan stratégique en France.

Accuracy advises Boralex

Accuracy conducted financial due diligence for Boralex in the context of its agreement with Energy Infrastructure Partners to support the implementation of its Strategic Plan in France.

Accuracy conseille InfraVia Capital Partners

Accuracy a réalisé les travaux de Buy-side DD stratégique pour InfraVia Capital Partners dans le cadre de la prise de participation majoritaire dans le groupe de crèches Grandir.

Accuracy conseille H.I.G. Capital

Accuracy a realisé la buy-side due diligence financière pour H.I.G. Capital dans le cadre de l’acquisition de Quick Restaurants S.A.

Accuracy conseille Sodexo

Accuracy a réalisé les travaux de vendor due diligence financière et stratégique pour SODEXO dans le cadre de la cession de Liveli à Grandir.

Accuracy conseille le Groupe Briochin

Accuracy a réalisé la Vendor Assistance pour le Groupe Briochin dans le cadre de sa cession à Altaïr, société dont Eurazeo est l’actionnaire majoritaire.

Accuracy conseille Schneider Electric

Accuracy a réalisé les travaux de due diligence financière, de SPA ainsi que des comptes d’achèvement pour Schneider Electric dans le cadre de l’acquisition d’une participation majoritaire de ETAP Automation.

Accuracy Talks Straight #2 (FR)

Pour notre deuxième édition de Accuracy Talks Straight, Nicolas Barsalou nous livre son point de vue sur la sortie de crise, avant de laisser Romain Proglio nous présenter Delfox, une start-up spécialisée en intelligence artificielle. Nous analyserons ensuite l’impact de la crise dans le secteur aéronautique avec Philippe Delmas, Senior Aerospace & Defence advisor, Christophe Leclerc et Jean-François Partiot.
Sophie Chassat, Philosophe et associée chez Wemean, nous proposera d’explorer la sortie de crise – côté culturel. Enfin, nous nous focaliserons sur la dette publique avec Jean-Marc Daniel, économiste, professeur émérite à l’ESCP, ainsi que sur le risque inflationniste avec Hervé Goulletquer, Senior Economic Advisor.


SOMMAIRE


Édito

Nicolas Barsalou
Associé, Accuracy

LA CRISE ET CE QUI S’ENSUIVIT*

La crise que nous traversons depuis bientôt un an et demi n’a pas d’équivalent dans l’histoire moderne. Ce n’est ni une crise cyclique classique, ni même une réplique de la grande crise financière de 2008. Il serait donc dangereux de penser que nous en sortirons de la même manière que les crises précédentes.

Que constatons-nous ? Deux mots permettent d’approfondir l’analyse.

Le premier est « contraste ». Ce n’est certes pas la première fois qu’une crise économique affecte plus sévèrement certaines zones géographiques, et notamment dans le cas présent l’Europe plus que l’Extrême-Orient. En revanche, c’est la première fois que nous observons une telle diversité en matière d’impact sur les différents secteurs économiques. Ainsi certains secteurs sinistrés mettront au mieux plusieurs années à retrouver la situation de 2019, comme le transport aérien ou le tourisme. A contrario, d’autres secteurs ont tiré parti de la crise, comme les activités en ligne (e-commerce, vidéo, jeux) ou ont pu servir de valeur refuge, comme le luxe.

Le deuxième mot est sans doute « incertitude ». Compte tenu d’un contexte géopolitique tendu et des injections sans précédent de capitaux dans l’économie, l’embellie actuelle pourrait déboucher à relativement court terme sur une autre crise de nature plus classique, d’autant plus sérieuse que toutes les plaies récentes n’auront pas cicatrisé.

En tant que conseils de nombreux acteurs de la vie économique partout dans le monde, nous observons une dé-corrélation inédite entre certaines situations de marché et l’état général de l’économie. D’une part, le marché des fusions-acquisitions, dopé par une abondance sans précédent de liquidités, a rarement sinon jamais connu une telle exubérance en volume comme en prix, et ce bien avant la sortie de crise. D’autre part, le marché des restructurations des entreprises est lui aussi et simultanément très actif, porté en particulier par les renégociations bancaires dans certains secteurs en difficulté. Ce paradoxe n’est qu’apparent : compte tenu des éléments rappelés ci-dessus il est possible et donc naturel d’observer ces deux tendances à la fois.

Dans ce contexte, il convient à notre avis plus que jamais pour tous les acteurs de la vie économique et financière d’éviter les comportements moutonniers et d’analyser chaque cas de manière individualisée et sur-mesure.

Le cas le plus intéressant est sans doute celui de secteurs qui sont traversés à la fois par ces deux courants positif et négatif. Le secteur de l’immobilier est particulièrement pertinent car il est traversé par des mutations profondes et durables, auxquelles s’ajoutent les effets de la dernière crise. Examinons à ce ti t re deux sous-secteurs représentatifs : l’immobilier commercial et l’immobilier de bureaux.

Le premier est affecté depuis longtemps maintenant par le développement for t et pérenne du e-commerce, phénomène qui s’est accéléré en 2020 sous l’effet du confinement et de la fermeture de nombreux centres commerciaux, à tel point que les valeurs des foncières commerciales étaient en fin d’année dernière à un plus bas historique. Notre conviction arrêtée depuis longtemps déjà est que cette baisse des valeurs était excessive et caractéristique de ces mouvements moutonniers déjà mentionnés et non adaptés à l’économie moderne : les centres bien placés, bien gérés et bien aménagés continueront à être des acteurs majeurs du commerce. Il est heureux que, depuis quelques semaines, certains commencent à s’en rendre compte et que les valeurs remontent.

Le deuxième bénéficiait jusqu’à la crise de 2020 d’une conjoncture favorable, en raison d’une inadaptation structurelle de l’offre à la demande et d’une situation de taux d’intérêt réels nuls qui tirait à la hausse les valeurs dites « refuges » comme l’immobilier.

De surcroît, la crise a eu jusqu’ici peu d’impact car, pour l’essentiel, les loyers ont continué à être payés et, compte tenu d’une politique monétaire extrêmement accommodante, les taux de capitalisation et donc les valeurs ont peu évolué. Or, ces deux paramètres sont aujourd’hui menacés. L’essor du télétravail, s’il s’avère pérenne et significatif (au-delà sans doute d’un ou deux jours par semaine), aura inévitablement des conséquences importantes sur la quantité de mètres carrés nécessaires, sur l’aménagement des locaux et sur leur emplacement. Tous ces impacts ne seront pas forcément négatifs : s’il est certain que les grands centres d’affaires comme La Défense ou Canary Wharf souffrent et vont souffrir, les quartiers centraux des affaires pourraient voir leurs valeurs et taux d’occupation continuer à croître.

Quant aux paramètres macro-économiques, et notamment l’inflation, seul un oracle pourrait prédire leur évolution : la seule chose à faire est de rester vigilant et de se donner les moyens d’être anti-fragile grâce à des stratégies privilégiant la flexibilité et l’agilité. À cet égard, il sera extrêmement pertinent de surveiller l’évolution du secteur bancaire, mais ceci sera l’objet d’une autre chronique…

* « LES MYRTES ONT DES FLEURS QUI PARLENT DES ÉTOILES ET C’EST DE MES DOULEURS QU’EST FAIT LE JOUR QUI VIENT PLUS PROFONDE EST LA MER ET PLUS BLANCHE EST LA VOILE ET PLUS LE MAL AMER PLUS MERVEILLEUX LE BIEN »

LOUIS ARAGON
« LA GUERRE ET CE QUI S’ENSUIVIT » (LE ROMAN INACHEVÉ)


Delfox

Romain Proglio
Associé, Accuracy

Fondée en 2018 à Bordeaux, Delfox est une plateforme d’Intelligence Artificielle par apprentissage à renforcement, permettant de modéliser des systèmes capables d’évoluer intelligemment et de manière autonome et intuitive dans un environnement en évolution constante, sans intervention humaine ni programmation préalable.

La technologie développée par Delfox consiste ainsi à donner des objectifs à l’IA, qui doit ensuite trouver un moyen d’atteindre de les atteindre. En effet, lorsqu’il s’agit d’IA, il faut comprendre que cette intelligence repose avant tout sur de l’apprentissage.

Ce sont donc ces mécanismes d’apprentissage qui sont au coeur du développement de Delfox, qui s’est développé de manière significative depuis plus de deux ans sur des compétences de pointe comme le Deep Learning, le Reinforcement Learning et les algorithmes avancés connexes.

Il s’agit d’apprendre à une machine à réagir de manière autonome, donc sans lui indiquer comment faire face à une problématique. La machine proposera elle-même des solutions, qui amèneront des récompenses ou des pénalités, et apprendra ainsi de ses erreurs.

Pour apprendre par exemple à un drone à aller d’un point A à un point B, il ne s’agit donc pas de lui indiquer s’il doit éviter des collisions ou accélérer à certains points du trajet, mais plutôt de lui laisser la capacité de réagir lui-même et de le récompenser ou le pénaliser en fonction des solutions proposées. Les applications sont particulièrement larges, en premier lieu dans le domaine des satellites, dans lequel Delfox épaule ArianeGroup dans la surveillance de l’espace. Delfox participe ainsi à détecter les trajectoires de satellites à partir de données provenant du réseau de surveillance de l’espace GEOTracker pour éviter les collisions et les interférences.

Mais le champ d’application est bien plus vaste : drones autonomes militaires et urbains, automobiles, logistique, Défense, Naval, etc. L’autonomie sera sans aucun doute un segment d’activité clef de la prochaine décennie. Delfox est déjà une des plus belles réussites dans le domaine. Avec 15 collaborateurs, Delfox a un objectif d’atteindre 1m€ de chiffre d’affaires en 2021, et possède déjà des références comme ArianeGroup, Dassault Aviation, Thales ou la DGA.


La filière aéronautique au pied du mur du climat

Philippe Delmas
Senior Advisor – Aerospace & Defence,
Accuracy

Christophe Leclerc
Associé,
Accuracy

Jean-François Partiot
Associé,
Accuracy

Le transport aérien est en tête de liste des secteurs les plus touchés par la crise du Covid. Derrière lui, souffre toute la filière aéronautique, des constructeurs aux équipementiers de toutes tailles. Le choc est d’autant plus violent que la croissance annuelle était de 5% en moyenne lissée sur les 40 dernières années et était encore prévue à plus de 4% par an pour les décennies à venir*.

En 2020, le trafic aura baissé de 66% par rapport à 2019** tandis que le timing et le niveau de sa reprise sont incertains. Sur les vols intérieurs des grands pays, la reprise dépendra de la rapidité et de l’efficacité des vaccinations. Elle est déjà vigoureuse aux Etats-Unis (trafic revenu à -31% en mars 2021 par rapport à mars 2019) et en Chine (+ 11%) alors qu’elle reste anémique dans l’Union européenne (- 63%). Sur les vols internationaux, la reprise dépendra des reconfinements liés à l’émergence de variants, du rythme de vaccination de chaque pays mais également de la confiance que ces derniers s’accorderont les uns les autres. Elle est aujourd’hui très faible. Au total, 2021 connaîtra un niveau de trafic encore très dégradé. Fin avril 2021, l’IATA prévoyait un trafic aérien mondial à 43% de son niveau de 2019, (contre 51% prévu en décembre). Globalement, le retour au niveau d’activité de 2019 devra sans doute attendre la mi-2022 pour les vols intérieurs et 2023, voire 2024, pour les vols long-courriers. Seul le fret a connu une croissance soutenue mais il représente moins de 10% du trafic.

Plusieurs facteurs laissent penser que le trafic aérien n’est pas prêt de retrouver une croissance durable comparable à celle des décennies précédant la crise, (5% par an de 1980 à 2019).
Plusieurs arguments viennent soutenir cette vision :

– Les préoccupations écologiques des passagers deviennent primordiales et une partie d’entre eux sera plus vigilante à voyager moins et moins loin ;

– Les grands groupes ont traversé la crise du covid en stoppant net tous les voyages d’affaires : courts, moyens et longs courriers.

L’apprentissage a été brusque et subit mais les conclusions sont radicales et très favorables à la stricte limitation de ces voyages, qui permet des économies importantes et l’amélioration du bilan climatique, qui est de plus en plus suivi par les marchés. Selon les dirigeants de grands groupes européens interrogés fin 2020, les voyages d’affaires pourraient durablement baisser de 25% à 40% par rapport à 2019***.

– Déjà suffisants pour justifier une baisse significative du trafic, ces deux facteurs seront complétés par un troisième, corollaire immédiat du modèle économique des compagnies aériennes. Les classes premières et affaires sont le levier majeur de rentabilité d’un vol long-courrier.

Si leurs volumes venaient à être amputés de 25% à 40%, les compagnies n’auront pas d’autre solution que d’augmenter significativement les prix moyens pour toutes les classes
de passagers.

L’impact de la modification des comportements sur les prix devrait entraîner un nouvel équilibre économique : une baisse des volumes de classe affaires de 30% pourrait entraîner une augmentation moyenne du prix des places (affaires et loisirs) de 15%. Avec un coefficient d’élasticité prix/volume de 0,9*, une baisse moyenne du trafic loisirs de 13,5% serait alors à prévoir.

En ordres de grandeur les prévisions de trafic aérien passager pourraient alors être les suivantes :

– Baisse du trafic en classe affaires et first de 30% ;
– Baisse du trafic en classe éco de 13,5% ;
– Augmentation des prix moyens de vente de 15%.

Selon nous, ce trou d’air inattendu et subit constitue une occasion unique pour la filière de se restructurer. Elle y est contrainte par une situation financière intenable. Le transport aérien a levé plus de 250 milliards de dollars de dettes depuis le début de la pandémie et son niveau d’endettement net total devrait dépasser son chiffre d’affaires courant fin 2021 début 2022. Aujourd’hui, le secteur perd encore des dizaines de milliards de dollars de cash chaque trimestre participant à la poursuite de son endettement. (Source IATA)

L’industrie va nécessairement devoir réviser son modèle en profondeur, d’autant plus que cette contrainte économique se double d’une contrainte climatique tout aussi violente. Le transport aérien est en effet un émetteur important de CO2, à hauteur de 2,5% du niveau mondial et de l’ordre de 4% dans l’Union européenne. Il subit en outre une contrainte qui lui est spécifique, à savoir que le CO2 n’est qu’une fraction de son impact climatique global. Les travaux les plus récents ( juillet 2020) confirment que ses émissions de monoxyde d’azote en haute altitude (NOx) contribuent davantage au réchauffement climatique global que celle de CO2.

Au total, le transport aérien représenterait à lui seul 5 à 6% de l’impact climatique de l’humanité.

Ce n’est pas faute d’effort. Les émissions de CO2 par km. passager ont baissé de 56% depuis 1990, ce qui est l’une des meilleures performances de toutes les industries. Le tonnage total de CO2 émis a néanmoins doublé sur cette même période en raison de la croissance du trafic. Ryanair, le leader européen du low cost, résume l’impasse climatique du transport aérien: ses avions sont très récents, leur remplissage maximum (taux moyen 95%) mais elle est l’entreprise la plus émettrice de CO2 d’Europe après 9 opérateurs de centrales électriques à charbon.

Le progrès technique se poursuivra mais, pour les avions tels que nous les connaissons, il ne s’accélèrera pas non plus. Quant aux technologies vraiment nouvelles (hydrogène, électricité), elles viendront sans doute, mais trop tard pour jouer un rôle impor tant dans la tenue des objectifs du GIEC en 2050, c’est à dire limiter le réchauffement climatique à 1,5°C et des émissions nettes de carbone à zéro.

Dans ce contexte, la filière doit se repenser en tenant compte des faits suivants :

– La croissance du trafic restera durablement inférieure à celles des décennies précédentes ;
– Les progrès d’efficacité énergétiques se poursuivront mais ne s’accélèreront pas ;
– Ils devront être complétés par des solutions climatiques crédibles (et donc pas de la compensation) et rapides, comme les carburants propres. Boeing et Airbus viennent d’annoncer, au printemps 2021, leur volonté d’accélérer vite et fort sur l’usage du kérosène vert. Ces derniers ne viendront néanmoins pas en volumes suffisants pour répondre aux objectifs du GIEC ;
– Le sérieux problème, aujourd’hui laissé de côté, des émissions en haute altitude va devoir être traité ;
– Par la suite, et compte tenu du coût des solutions de décarbonation, le coût du transport aérien va fatalement augmenter significativement ;
– Cette hausse pèsera sur le trafic le plus sensible au prix, le tourisme, tandis que la Tech réduira nettement et durablement le trafic « haute contribution » ;
– Combinés avec une situation d’endettement préoccupante, ces facteurs vont imposer une révision profonde du modèle économique du transport aérien.

Malgré ce diagnostic sévère, nous pensons qu’il existe des moyens pour l’industrie de réagir de manière radicale et constructive. Nous vous proposerons des pistes prochainement.

____________

Sources : *Boeing et Airbus / * IATA
***interviews Accuracy de dirigeants de grands groupes.


Sortie de crise : dans quoi entrons-nous ?

Sophie Chassat
Philosophe, Associée chez Wemean

La métaphore est médicale : une crise est le moment « critique » où tout peut basculer dans un sens ou dans l’autre. Celui, vital, du rétablissement ou celui, fatal, de la mort. Il semblerait pourtant que les choses ne soient pas aussi nettes et que, pour reprendre la formule de Gramsci, la crise prenne plutôt la forme d’un « interrègne », « consist[ant] justement dans le fait que l’ancien meurt et que le nouveau ne peut pas naître »1. De quoi tout cela va-t-il accoucher ? Suspense… Originellement, « sortir » signifie d’ailleurs « tirer au sort ».

Car c’est bien ce que nous ressentons actuellement : un entre-deux pas très confortable et dont on ne sait où il nous mènera. Le monde d’après qui ne vient pas, le monde d’avant qui ne revient pas, même si, comme les personnages de La Peste de Camus nous reprenons apparemment, à peine l’orage passé, nos habitudes d’antan en toute insouciance, voire inconscience2. Pourtant, nous savons bien en même temps que quelque chose a changé, que cette crise a été au sens fort une « expérience », terme dont l’étymologie signifie « hors du péril » (latin ex-periri). Sortir d’une crise, c’est en effet toujours s’en sortir et en retirer un bénéfice en termes d’apprentissage. L’épreuve nous voit forcément transformés.

Mais qu’est-ce que serait une « bonne » sortie de crise ? Une sortie de crise qui soit une sortie par le haut et pas une sortie de route ? Pour le philosophe Georges Canguilhem, « la mesure de la santé c’est une certaine capacité à surmonter des crises organiques pour instaurer un nouvel ordre physiologique, différent de l’ancien.
Sans intention de plaisanterie, la santé c’est le luxe de pouvoir tomber malade et de s’en relever. »3

Surmonter une crise, c’est inventer une nouvelle norme de vie pour s’adapter à une situation inédite. La santé, c’est l’aptitude à créer des « allures de vie » neuves, alors que la maladie se constate à l’incapacité d’innover. Aussi faut-il se méfier de toutes les sémantiques qui suggèrent un retour au même ou le simple dénouement d’un état : « recommencer », « repartir », « s’y remettre », « déconfiner ».

Inventer, créer, voilà ce qui nous sortira réellement et vitalement de la crise. Comme le disait dès le premier confinement un autre philosophe, Bruno Latour, « si on ne profite pas de cette situation incroyable pour changer, c’est gâcher une crise. »4 C’est pourquoi il nous faut aussi envisager cette sortie de crise comme l’occasion de sortir de nos bulles mentales et de nos préjugés. Sans jamais oublier la question du sens de nos décisions : pourquoi voulons-nous changer ? Dans quelle nouvelle ère voulons-nous « entrer », sachant que d’autres crises nous attendent ? Plus le brouillard est intense, plus nos phares doivent être puissants et porter loin.

____________

1 « La crise consiste justement dans le fait que l’ancien meurt et que le nouveau ne peut pas naître : pendant cet interrègne on observe les phénomènes morbides les plus variés. » Antonio Gramsci, Cahiers de prison (rédigés entre 1929 et 1935).

2 « Pour le moment, il voulait faire comme tous ceux qui avaient l’air de croire, autour de lui, que la peste pouvait venir et repartir sans que le coeur des hommes en soit changé. » Albert Camus, La Peste (1947).

3 Georges Canguilhem, « Le Normal et le Pathologique », in. La Connaissance de la vie (1966). « Ce qui caractérise la santé c’est la possibilité de tolérer des infractions à la norme habituelle et d’instituer des normes nouvelles dans des situations nouvelles. »

4 « Le Grand Entretien », France Inter, 3 avril 2020.


Considérations sur la dette publique

Jean-Marc Daniel
Économiste, professeur émérite à l’ESCP

Les politiques de soutien à l’économie liées à la Covid 19, en substituant de la dette au travail, ont fait exploser l’endettement public mondial. D’après le FMI, celui-ci devrait passer de 83% du PIB fin 2019 à 100% fin 2021. A cette date, ce ratio serait de 119% en France, de 158% en Italie et de … 264% au Japon. Or beaucoup des commentaires que suscite cette explosion sont saugrenus.

QUATRE IDÉES FAUSSES SONT SOUVENT VÉHICULÉES À PROPOS DE LA DETTE PUBLIQUE.

La première est qu’elle constitue un fardeau qu’une génération transmet à la génération suivante. Pourtant, dès le XVIIIe siècle, Jean-François Melon a montré le caractère approximatif d’une telle assertion. Ce secrétaire du célèbre John Law au moment où celui-ci mène sa politique de monétisation de la dette publique a cherché à se justifier après l’échec de cette politique. Il a donné sa vision de ce qui s’est passé dans un Essai politique sur le commerce où il énonce :

« PAR LA DETTE PUBLIQUE LE PAYS SE PRÊTE À LUI-MÊME. »

Il insiste sur le fait que la dette publique ne réalise pas un transfert d’une génération à l’autre mais d’un groupe social – les contribuables – vers un autre – les détenteurs de titres publics – qui perçoit les intérêts.

La deuxième est que le remboursement de la dette fait peser une menace sur les finances publiques. Certains proposent donc d’émettre de la dette perpétuelle pour ne pas avoir à la rembourser. Il se trouve qu’en pratique, la dette publique est déjà perpétuelle. En effet, les Etats se contentent de verser les intérêts. Depuis le début du XIXe siècle, aucun crédit n’est inscrit dans leur budget pour le remboursement de leur dette. Chaque fois qu’un emprunt arrive à échéance, il est immédiatement replacé.

La troisième est que c’est une hausse brutale des taux d’intérêt qui constituerait une menace puisque l’engagement concret et formel de l’Etat est de payer des intérêts. La raréfaction progressive des prêteurs potentiels provoquerait cette hausse et restreindrait la possibilité pour les Etats d’emprunter. Cependant, chaque économie moderne est dotée d’une banque centrale agissant en prêteur en dernier ressort. Résultat, les banques achètent sans problème et donc sans limite une dette dont elles peuvent se défaire en la lui revendant. Taux d’intérêt effectif et montant de dette détenue par les acteurs privés dépendent in fine de l’action de la banque centrale. Le statut de la Réserve fédérale américaine est d’ailleurs explicite dans la définition de sa mission:

« Maintenir en moyenne une croissance des agrégats monétaires et de la quantité de crédit compatible avec le potentiel de croissance de la production, de manière à tendre vers les objectifs suivants : un taux d’emploi maximum ; des prix stables ; des taux d’intérêt à long terme peu élevés ».

Bien qu’indépendantes, les banques centrales maintiennent désormais des taux très bas dans le but assumé d’alléger la charge d’intérêt des Etats. En outre, comme la banque centrale reverse à l’Etat les intérêts qu’il lui a versés sur sa dette, la part de la dette publique que celle-ci détient est gratuite, ce qui abaisse systématiquement le taux d’intérêt moyen payé par l’Etat. Le cas du Japon est à ce sujet illustratif. Selon l’OCDE, son ratio dette publique/Pib était de 226% en 2019. Et le gouvernement nippon envisage sereinement qu’il puisse atteindre 600% en 2060. Son insouciance tient à ce que, grâce à une politique monétaire ultra-accommodante et à une détention de 40% de la dette publique par la Banque centrale, la charge nette d’intérêt a été ramenée à presque zéro en 2019.

Enfin, la quatrième est qu’il y aurait un partage à faire entre une bonne dette et une mauvaise dette.

La bonne dette publique financerait les investissements et la mauvaise le fonctionnement. Ce partage n’a aucun sens car il repose sur un tropisme consistant à appliquer à la dette publique le raisonnement concernant la dette privée. Il suppose que les dépenses publiques d’investissement préparent l’avenir tandis que celles de fonctionnement le sacrifient au présent. Mais il est facile de voir que le salaire d’un chercheur, dont les travaux vont déboucher sur du progrès technique et donc sur davantage de croissance, est du fonctionnement, alors que la construction d’une route ne menant nulle part est un investissement…

Néanmoins, l’idée d’une bonne et d’une mauvaise dette doit être précisée car, sous certaines conditions, c’est elle qui doit guider la politique budgétaire. Nos ancêtres avaient d’ailleurs identifié le problème.

Pendant longtemps, les autorités religieuses ont considéré que la rémunération d’un prêt était usuraire.

Leur raisonnement s’est affiné avec le temps, si bien qu’au XIIIe siècle, Saint Thomas d’Aquin pouvait écrire :

« Celui qui prête de l’argent transfère la propriété de son argent à l’emprunteur ; par conséquent celui qui emprunte possède la somme à ses risques et périls et il est tenu de la rendre intégralement. Le prêteur ne doit donc pas exiger davantage. Mais celui qui prête son argent à un marchand ou à un artisan avec lequel il s’est associé, ne lui transmet pas la propriété de la somme, il en reste toujours le propriétaire, de telle sorte que c’est à ses risques et périls que le marchand commerce sur son argent ou que l’artisan travaille. C’est pourquoi il peut licitement recevoir une partie du gain »

L’économie politique naissante a dès lors distingué deux types de prêts : d’une part, les prêts « commerciaux », encore appelés « prêts de production », qui financent des investissements et l’émergence d’une richesse future fournissant de quoi verser des intérêts ; d’autre part, les prêts destinés à secourir les gens en difficulté, appelés « prêts de consommation », qui relèvent d’une logique de don et doivent être gratuits.

La concrétisation moderne des réflexions de Saint Thomas d’Aquin conduit à affirmer que la dette privée trouve sa justification dans le financement de l’investissement apportant une amélioration structurelle de la croissance tandis que la dette publique trouve la sienne en tant que réponse aux aléas conjoncturels, assurant la solidarité collective avec les secteurs économiques mis en difficulté par les fluctuations cycliques.

C’est sur ces principes que reposent les traités européens, notamment le « Traité sur la stabilité, la coordination et la gouvernance ».

CELUI-CI STIPULE :

« La situation budgétaire des administrations publiques d’une partie contractante est en équilibre ou en excédent ; la règle énoncée est considérée comme respectée si le solde structurel annuel des administrations publiques correspond à (…) une limite inférieure de déficit structurel de 0,5 % du produit intérieur brut aux prix du marché. »

Il entérine le distinguo entre un « bon déficit » – le déficit conjoncturel, qui apparaît quand la croissance s’essouffle et qui s’efface quand elle est soutenue – et un « mauvais déficit » -le déficit structurel, qui est indépendant du cycle et perdure quelles que soient les circonstances.

Ce qui est inquiétant aujourd’hui, c’est que nous nous écartons de ce schéma, ce qui n’est pas sans conséquences négatives.

La première tient à l’égalité entre l’offre et la demande. Toute dépense publique non financée par un prélèvement sur la dépense privée augmente la demande. Si cette augmentation se pérennise, elle entraîne soit un apport d’offre extérieure, c’est-à-dire un creusement du déficit commercial, soit une possibilité offerte au système productif d’augmenter ses prix, c’est-à-dire une relance de l’inflation.

La deuxième tient à ce que l’augmentation de la dette publique provoque des anticipations négatives chez les acteurs privés.

Dans un premier temps, le réflexe d’épargne pour affronter un avenir fiscal rendu incertain par l’accumulation de dette conduit à une augmentation du prix des actifs dont les bulles immobilières sont les traductions les plus manifestes. C’est ce que les économistes appellent l’« équivalence ricardienne ».

Dans un second temps, ces anticipations négatives érodent la crédibilité de la monnaie.

Les pays qui, comme le Liban, ont vu leur devise disparaître au profit du dollar du fait de l’emballement de l’endettement public sont rares. Néanmoins, nous assistons à un retour en force de l’or, qui demeure dans l’inconscient collectif l’ultime recours monétaire, retour en force que souligne l’envolée des cours de ce métal précieux.

Tout ceci pour conclure qu’il est temps de mettre un terme au « quoi qu’il en coûte » même si une cessation de paiement de l’Etat n’est pas à l’ordre du jour.


Risque inflationniste : où regarder ?

Hervé Goulletquer
Senior Economic Advisor

Souvenons-nous du temps d’avant la pandémie. Les prix étaient bien sages. De début 2010 à début 2020, la hausse moyenne annuelle des indices de prix à la consommation, dont on exclut les postes particulièrement volatils que sont l’énergie et les produits alimentaires, atteint 1,8% aux Etats-Unis et 1,1% en Zone Euro. L’objectif de 2% des banques centrales n’est pas respecté et même un taux de chômage très bas (en début d’année dernière il était de 3,5% outre-Atlantique et de 5% en Allemagne) parait être impuissant à provoquer une accélération, via des coûts salariaux plus dynamiques.

Les évolutions du marché du travail expliqueraient pour une grande partie ce résultat : la dérèglementation et la baisse du pouvoir de négociation des salariés. Une préférence collective pour l’épargne par rapport à l’investissement et la crédibilité des politiques monétaires sont les autres explications à mettre en avant.

Une crise de la COVID qui dure presqu’un an et demi, une sortie qui se dessine enfin, au moins aux Etats-Unis et en Europe, et voilà que le panorama des prix paraît chamboulé. En deux mois (avril et mai), ce même noyau dur des prix augmente de 1,6% aux Etats-Unis (10% en rythme annuel !) et de 0,7% en Zone Euro (soit plus de 4% en annualisé). Que se passe-t-il ? En sachant que la (mauvaise) surprise est d’autant plus grande que l’objectif de politique économique, tout au long de la pandémie, a été de préserver les capacités productives (entreprises et salariés), de telle sorte que l’activité puisse repartir « comme avant » lorsque les conditions sanitaires le permettraient.

Du côté des prix, les choses ne se passeraient donc peut-être pas comme prévues. Quelles explications peut-on avancer ? Proposons en trois.

D’abord, la réouverture d’une économie peu ou prou « misesous cloche » pendant un temps assez long nécessite un rééquilibrage. Relancer la production n’est pas instantané et la demande liée au confinement est différente de celle de la réouverture. Du côté de l’offre, un indice de matières premières, comme le S1P GSCI, est en hausse de 65% sur un an (et même de 130% par rapport au point bas d’avril 2020). De même, le coût du fret maritime a progressé sur un an de plus de 150%. Du côté de la demande, dans ce moment de passage d’un état de l’économie à l’autre, deux mécanismes de déformation à la hausse des prix cohabitent. Les biens ou les services, qui sont ressortis comme les gagnants du confinement, n’ont pas encore « abdiqué » ; leurs prix restent dynamiques. Ceux, qui ont été les perdants, peuvent désormais « relever la tête » ; ou pour mieux dire les tarifs ! Les deux graphiques* ci-dessous illustrent ce qui se passe aux Etats-Unis.

Fort de ce double constat et à ce stade de l’analyse, une première conclusion se dessine : le phénomène d’accélération des prix serait bien transitoire, comme le répètent les banquiers centraux. Les circuits de production vont retrouver un « régime de croisière » et la concomitance de ces deux mouvements d’emballement de certains prix au détail n’est pas appelée à durer.

Etats-Unis : les prix gagnants du déconfinement (4% de l’indice)

Etats-Unis : les prix gagnants du confinement (12% de l’indice)

Ensuite, il faut rappeler les mécanismes qui sont au coeur de la formation des prix à la consommation. Trois points sont clé en la matière.

1. La perte en ligne entre prix des produits bruts et prix à la consommation est très importante. Tant et si bien que dans le cas américain la corrélation entre les deux séries est de seulement 10%.

2. Le profil des coûts salariaux, et surtout de ceux par unité produite (les premiers dont on soustrait l’évolution de la productivité du travail), façonne, avec un retard d’un petit nombre de trimestres, celui des prix à la consommation. Les messages envoyés par l’amont de cette relation ne sont pas inquiétants. Le taux de chômage n’a pas, et de beaucoup, retrouvé le niveau d’avant l’épisode de la COVID et les entreprises insistent beaucoup sur la nécessité d’améliorer leur efficacité.

3. Les anticipations inflationnistes jouent un grand rôle dans la formation des prix. La stabilité des premières est la garante de celle des seconds. Le raisonnement est le suivant : si tous les consommateurs se mettent à croire que les prix vont accélérer, ils vont ensemble précipiter les décisions d’achat. Le déséquilibre, le plus souvent inévitable, entre une demande subitement plus marquée et une of fre qui a du mal à s’adapter rapidement, enclenche le phénomène d’accélération des prix. Celui-ci s’amplifiera et se pérennisera si les salaires s’ajustent au prix. Il sera alors justifié de parler d’inflation.

Disons que, pour le moment au moins, les anticipations ont plutôt bien résisté au « tintamarre » provoqué par ces quelques hausses un peu for tes des pr ix à la consommation.

Chine : la “perte en ligne” des prix à la production (IPP) au noyau dur des prix à la consommation (IPC)

Etats-Unis : le rôle-clé des coûts salariaux unitaires dans la formation des prix au détail

En conclusion de ce deuxième point analytique, le risque d’une inflation « cyclique » paraît peu présent à l’heure actuelle.

Enfin, malgré le souhait prononcé et la volonté affichée d’un retour à la normale une fois la pandémie mise derrière, ne doit-on pas s’interroger sur les changements induits par celle-ci ? POSONS ALORS TROIS QUESTIONS :

1. Comment éliminer les divergences générées par la crise sanitaire (pays, secteurs, entreprises et ménages (emploi et épargne) ?

2. Quel sera l’effet de la montée de l’endettement (public et privé) ?

3. Comment normaliser une politique économique très sollicitée ?

C’est bien parce que ces doutes sont présents que le volontarisme de politique économique à la fois demeure et se transforme. La meilleure illustration de la démarche est à rechercher outre-Atlantique dans la High Pressure Economy. Celle-ci a une triple ambition : empêcher un déclin de la croissance potentielle, réorienter l’économie vers demain (digital, environnement et éducation/formation) et dynamiser à la fois la demande et l’offre. Il faut à ce titre augmenter la demande publique et augmenter les transferts, dans l’idée que la dépense privée « suivra ». Il faut aussi et en même temps s’assurer que les politiques sectorielles et structurelles participent à la fois de l’offre correspondante, de gains de productivité plus élevés et de davantage d’emplois. Et ceci en évitant de trop importants décalages de calendrier entre les inflexions haussières respectives de la demande et de l’offre. Au risque sinon de créer les
conditions de prix moins sages.

De plus, Il ne faut pas se « cacher derrière son petit doigt ». Il y a une dimension « destruction créatrice » dans la démarche engagée.

TROIS ÉVOLUTIONS COMMENCENT DÉJÀ À APPARAÎTRE.

1. Une remise en cause du triptyque – mouvements (marchandises et personnes) / concentration (lieux de production et éventuellement entreprises) / hyperconsommation – pour cause de contrainte de développement durable.

2. Une recomposition du tissu productif (transport aérien, tourisme, automobile, …).

3. L’adéquation offre et demande de travail avec à la fois des pénuries et des excès de main d’oeuvre.

Il faut l’admettre : on n’est pas face à un déroulé à la fois cyclique et classique. Le réglage de la politique économique peut ne pas être adapté (un stimulus, ou mal calibré ou mal adapté) et les mutations structurelles et sectorielles peuvent générer des déséquilibres au niveau macroéconomique ; l’accélération des prix en serait un révélateur. Bien sûr, à aujourd’hui, tout ceci tient de la conjecture. Mais un devoir de vigilance apparaît.

REPRENONS LES TROIS CONCLUSIONS AUXQUELLES NOUS SOMMES ARRIVÉS :

Le transitoire n’est pas fait pour durer (!) ; les enchainements cycliques n’envoient pas de messages particulièrement inquiétants sur le profil des prix aujourd’hui et dans un avenir proche ; le mix, formé des initiatives de politique économique et des changements structurels en train de s’enclencher, est à suivre de près car il pourrait être source de déséquilibres, dont davantage d’inflation.

Il y a une référence historique à peut-être proposer : les années qui ont suivi la fin de la deuxième guerre mondiale, avec à la fois un besoin de soutenir l’économie et de résorber le déséquilibre entre une demande civile qui se réveille et une offre alors très militaire. Le tout forçant à des évolutions structurelles et sectorielles. Mais attention ; si une certaine résonnance au niveau des enchainements existe, l’enjeu de la maîtrise du temps est perçu différemment. Il fallait aller très vite il y a 75 ans ; beaucoup croient, à tort ou à raison, que la contrainte de calendrier est moins exigeante aujourd’hui. A ce titre, ni les initiatives de politique économique, ni les changements structurels ne seraient d’une ampleur et d’une vitesse telles qu’ils seraient générateurs de graves déséquilibres, dont davantage d’inflation.


Lire la première édition de Accuracy Talks Straight >

Accuracy conseille Résilians

Accuracy a réalisé les travaux de vendor due diligence pour Résilians dans le cadre de sa vente à Motion Equity Partners.

Accuracy conseille Tikamoon et Eres

Accuracy a réalisé les travaux de due diligence financière pour le management de Tikamoon et Eres dans le cadre de la cession des parts d’Adeo.

Accuracy conseille Amundi PEF

Accuracy a réalisé les travaux de buy-side due diligence financière pour Amundi PEF et un consortium de fonds dans le cadre de leur entrée au capital de The Reefer Group.

Accuracy conseille Saint-Gobain

Accuracy a réalisé les travaux de due diligence financière pour Saint-Gobain dans le cadre de l’acquisition de Chryso auprès de Cinven.

Accuracy conseille Kartesia Advisor

Accuracy a réalisé les travaux de buy-side due diligence financière pour Kartesia Advisor dans le cadre de l’acquisition de Babcock Wanson.

Accuracy conseille Naxicap Partners

Accuracy a réalisé les travaux de buy-side due diligence financière pour Naxicap Partners dans le cadre de l’acquisition de la participation d’Ardian dans le Groupe Lagarrigue.

Accuracy Talks Straight #1 (FR)

SOMMAIRE


Edito

30% des métiers seraient « télétravaillables ».
Telle est la conclusion d’une étude française menée par le ministère du Travail durant ce premier confinement, période sans précédent durant laquelle l’usage du télétravail s’est imposé du jour au lendemain dans de nombreux secteurs d’activité.

Un an après la naissance de cette révolution et grâce au retour d’expérience de plus de 450 collaborateurs, je vous propose de partager quelques précieux enseignements.

Un cadre propice à la concentration

Malgré un certain sentiment de méfiance et grâce à l’extraordinaire capacité d’adaptation de tous, le télétravail a fait ses preuves. Il constitue, lorsque son foyer le permet, un cadre favorisant la concentration nécessaire à la réalisation de certains travaux comme la rédaction de rapports par exemple. Il s’avère également efficace dans les cas concrets suivants : échanges concis entre collaborateurs, présentations de documents simples, réunions au nombre d’intervenants limité, au contenu bien préparé, avec un déroulé prévisible.

Un frein à l’apprentissage et à la créativité

Le télétravail impose cependant une distance, quels que soient les outils technologiques choisis et leurs fréquences d’utilisations. Cette distance ralentit le bon déroulement d’un apprentissage de qualité. Celui-ci ne peut en effet se faire qu’en prise directe avec les réalités du métier. L’apprenti doit pouvoir observer, interroger et comprendre les bonnes pratiques pour se les approprier. Le télétravail diminue aussi la créativité en nous privant de ces précieux échanges hors cadre qui font la vie d’un bureau, d’une équipe, d’une entreprise. Une remarque inattendue, un acquiescement ou un air réprobateur, un encouragement du regard … autant d’interactions précieuses qui permettent la remise en question, l’audace et qui nous permettent d’innover ensemble.

L’érosion du collectif

Enfin, entendue comme la simple somme d’individus isolés, une entreprise n’est rien. Le télétravail nous prive donc de cette dimension clé du collectif, de ce projet commun nourri au quotidien par nos échanges, nos accords et désaccords, une convivialité qui nous donne un sentiment d’appartenance et d’utilité.

Les pistes de réflexion sur ce sujet sont donc nombreuses et, alors que la crise sanitaire touche encore nombre d’entre nous et nous oblige une fois de plus à nous adapter, je vous invite à partager avec nous votre ressenti sur cette nouvelle façon de travailler.


Quandela

Romain Proglio
Associé, Accuracy

Le 21 janvier 2021, en visite au Centre de nanosciences et de nanotechnologies (C2N-CNRS), sur le plateau de Saclay, le Président Emmanuel Macron a dévoilé le lancement d’un Plan Quantique ambitieux. Ce plan, qui s’appuie sur l’excellence française en recherche, vise à rattraper le retard pris par la France en terme d’investissements.

Ce plan doit ainsi promouvoir les travaux et la recherche sur les ordinateurs, les capteurs, les calculateurs ou encore la cryptographie. Au total, près de 1.8 milliards d’euros seront consacrés à ce plan quinquennal.

Ce plan « se veut un plan pour tout l’écosystème » a également annoncé le Président de la République, preuve que l’émergence de technologies sur le marché passera notamment par certaines start-ups présentes sur le créneau des technologiques quantiques.

L’une des plus prometteuses, Quandela, est l’une des premières entreprises au monde à commercialiser des émetteurs de qubits photoniques sous la forme de photons uniques. Cette première brique technologie est fondamentale dans la constitution de futurs calculateurs quantiques.

Créée en 2017 par Pascale Senellart (directrice de recherche CNRS), Valérian Giesz, et Niccolo Somaschi, Quandela est une spin-off du C2N, CNRS. L’équipe a pour objectif, sur la base de cette technologie d’impulsions lumineuses, d’améliorer la rapidité de calcul des ordinateurs de recherche et de construire à terme les premiers ordinateurs quantiques.

Les possibilités offertes par une telle perspective sont immenses, de la découverte potentielle de nouveaux médicaments grâce à des simulations d’interactions moléculaires à des applications dans l’aéronautique ou la banque en permettant une analyse de données et de risques quasi-infinie.

Quandela est au cœur de la révolution quantique, et aborde une nouvelle étape de sa croissance grâce à une levée de fonds réalisée en juillet 2020 auprès de Quantonation (premier fonds de capital-risque dédié aux technologies quantiques et à la physique innovante) et Bpifrance (fonds French Tech Seed). Cette levée va notamment permettre d’accélérer le déploiement commercial de la nouvelle génération de produits.

Quandela est accompagnée depuis quelques mois par La Place Stratégique, organisation parrainée par l’État (Ministère des Armées, DGA – Direction générale de l’armement, Agence de l’innovation de défense, Gendarmerie Nationale), de grands industriels (Thales, Arquus) et les cabinets Accuracy et Jeantet – avocats, qui a vocation à accompagner ces jeunes entreprises qui compteront dans le monde de demain.


La customisation et personnalisation du secteur de la beauté | 8 minutes de lecture

Jean-François Partiot
Associé, Accuracy

Abel Perea Burrel
Senior manager, Accuracy

Klemens Lemarre
Associate, Accuracy

La personnalisation des produits de beauté est un levier bien plus puissant que les cycles d’innovation marketing traditionnels de l’industrie

Pour les groupes de cosmétiques, le marketing et l’innovation ont toujours été des facteurs clés de succès. C’est encore plus vrai de nos jours dans un environnement où le consommateur a accès à une offre beaucoup plus large et à davantage d’informations grâce au web.

Historiquement, les cycles de marketing et d’innovation étaient surtout centrés sur le produit, se focalisant sur l’amélioration continue des gammes de produits et la montée en valeur des marques. Mais cette routine marketing a été brusquement bousculée par l’essor de nouvelles attentes consommateurs. Le marketing et l’innovation sont désormais axés sur le client afin de répondre à la demande de produits qui soient à la fois naturels et davantage personnalisés.

Nous savons désormais que l’intérêt croissant pour l’environnement et pour les produits bio est structurel.

Mais s’agissant de la customisation et de la personnalisation (abrégés en « C&P » ci-après1) des produits de beauté, faut-il les considérer comme une tendance structurelle majeure ou simplement comme une astuce marketing destinée à amuser les « Millenials » ?

Nous sommes convaincus que la tendance à la customisation et à la personnalisation va considérablement redessiner les contours de l’industrie de la beauté car elle impacte directement la capacité de différenciation des marques et leur modèle économique.

Nous détaillons ci-dessous les modalités et les raisons de cette évolution majeure.

La tendance vers la customisation et la personnalisation (C&P) est tirée par les attentes des clients et facilitée par les innovations technologiques

Graphique 1. Attentes et catalyseurs de la tendance C&P

Trois attentes consommateurs comme moteur de cette transformation

Besoin de produits axés sur le client

L’attractivité croissante de produits de beauté customisés et personnalisés traduit une évolution des attentes des consommateurs, notamment sur des marchés mûrs saturés par la standardisation de l’offre et par la surconsommation.

Considérations éthiques

La C&P permet aux consommateurs de sélectionner les ingrédients utilisés dans leurs produits (avec une tendance à proposer des produits durables, bio, végans, ou respectueux des espèces animales).

Besoin d’inclusion et de diversification

L’offre de produits de beauté personnalisés permet de répondre à des besoins clients qui ne sont pas pris en compte par le marché de masse (comme les soins capillaires pour Afro-Caribéens ou les soins de la peau adaptés à la complexion de chacun).

Deux catalyseurs technologiques

Numérisation

La convergence croissante des canaux en ligne et hors ligne et la montée en puissance du commerce direct B to C ouvrent la voie au développement de la beauté sur mesure.

Progrès scientifiques et montée en puissance des nouvelles technologies industrielles

La combinaison des progrès scientifiques et technologiques offre une occasion unique d’obtenir des données sur les consommateurs, de les analyser et de comprendre les besoins clients afin de créer des offres de beauté entièrement personnalisées. La valeur stratégique des données consommateurs est plus importante que jamais pour les laboratoires cosmétiques.

La combinaison de ces deux catalyseurs se matérialise à travers cinq solutions ou modes d’opération principaux que les entreprises ont mis en œuvre dans leurs stratégies C&P.

1. Beauté high-tech

En ayant recours à la personnalisation par algorithmes, plusieurs acteurs majeurs développent des produits de beauté high-tech offrant aux clients une expérience de personnalisation complète. Ces entreprises utilisent l’intelligence artificielle, la réalité augmentée ou encore l’impression 3D pour être à la pointe de la technologie de la beauté.

À titre d’exemple, au Consumer Electronics Show 2020 L’Oréal a présenté un nouvel appareil appelé « Perso » dont le lancement est prévu pour 2021. Cet appareil crée des soins de la peau, des rouges à lèvres et des fonds de teint personnalisés haut de gamme. Il fonctionne en quatre étapes : (I) un bilan cutané personnel est réalisé grâce à la technologie ModiFace (intelligence artificielle) ; (II) les conditions environnementales locales de l’utilisateur sont évaluées par l’appareil grâce à des données de géolocalisation ; (III) l’utilisateur peut personnaliser la formule du produit selon ses envies ou besoins particuliers ; (IV) le dispositif fabrique le produit cosmétique en tenant compte de tous les paramètres renseignés.

2. Personnalisation par algorithmes

De plus en plus d’acteurs de la beauté et des soins personnels proposent des cosmétiques personnalisés créés par des algorithmes. En général, leurs clientes et clients répondent à un questionnaire ou se prêtent à une évaluation afin de déterminer leurs besoins, que ce soit en ligne ou en magasin. Les réponses et/ou les résultats sont ensuite analysés par des algorithmes dans le but de déterminer quel type de produit correspond le mieux à leurs caractéristiques individuelles.

A titre d’exemple, la marque française IOMA propose des soins de la peau personnalisés à partir d’un questionnaire en ligne ou d’un bilan cutané en magasin. Un algorithme recommandera automatiquement la formule idéale parmi plus de 33 000 combinaisons possibles. Des informations sur les consommateurs, par exemple des évaluations cutanées, enrichissent l’ « Atlas » d’IOMA, une base de données qui centralise, compare et échantillonne les données cutanées pour développer de nouvelles solutions de soins.

3. Consultations de visu

Afin d’établir quels sont les cosmétiques les mieux adaptés à chaque individu, certaines marques ont mis en place des rencontres en face à face avec des experts pour aider les clientes et clients à créer des produits personnalisés adaptés à leurs besoins spécifiques.

Par le biais de son incubateur de technologies, L’Oréal a lancé en 2019 Color&Co, une marque de vente directe au consommateur spécialisée dans les kits de coloration personnalisée des cheveux. Sa proposition de valeur consiste en un chat vidéo gratuit de dix minutes avec un(e) coloriste spécialisé(e) qui crée un kit personnalisé adapté aux envies et aux spécificités capillaires de la cliente ou du client (lesquelles ont précédemment été décrites dans un court questionnaire). Le produit est ensuite directement expédié à domicile et contient tout ce qui est nécessaire pour se teindre les cheveux à la maison. Les consultations en face à face fournissent ainsi aux consommateurs des cosmétiques personnalisés qui visent à répondre à la demande croissante d’inclusion et de diversification.

4. Produits Mix & Match

Plusieurs marques proposent actuellement des produits « Mix & Match » qui permettent aux clientes et clients d’effectuer un choix entre tous les composants disponibles et d’élaborer des produits personnalisés correspondant à leurs propres attentes.

Guerlain, par exemple, a lancé « Rouge G » en 2018 : un rouge à lèvres personnalisable qui permet de sélectionner la couleur parmi 30 nuances disponibles et l’étui parmi 15 propositions différentes. Ainsi, les solutions « Mix & Match » permettent aux clientes et clients d’exprimer leur individualité et constituent un moyen de les fidéliser grâce à un processus de co-création.

5. Chatbots

Les chatbots sont de plus en plus utilisés sur les sites web des entreprises et sur les réseaux sociaux afin de proposer un service plus personnalisé. En général, ils dirigent le consommateur vers un article susceptible de lui plaire. Parfois, les chatbots interagissent avec une technologie de réalité augmentée qui permet d’essayer virtuellement des produits de beauté avant de les acheter.

À titre d’exemple, le détaillant de maquillage français Sephora a lancé un robot de beauté intelligent nommé « Sephora Virtual Artist » qui permet aux clientes et clients d’essayer instantanément une large gamme de produits de maquillage (rouges à lèvres, fards à paupières, eye-liners etc.) en téléchargeant un selfie dans l’application dédiée. Ayant bénéficié d’une expérience utilisateur personnalisée, les consommateurs peuvent ensuite acheter leurs produits préférés directement sur le site mobile de Sephora.

Ces cinq solutions diffèrent par l’investissement initial requis, la complexité de leur mise en œuvre et le degré de personnalisation (voir graphique ci-dessous).

Graphique 2. Solutions de C&P applicables sur le marché de la beauté

Les modèles C&P réussis doivent permettre d’accroître les profits des groupes qui les mettent en oeuvre

Les entreprises de beauté s’attendent à ce que la C&P ait des retombées économiques importantes et améliore leur rentabilité de manière significative et structurelle.

Capter les marges des détaillants grâce à la désintermédiation

Le modèle commercial de la personnalisation est basé sur la construction d’une relation directe avec le consommateur. Cette possibilité de désintermédiation est révolutionnaire pour les groupes cosmétiques car les outils et les plateformes de personnalisation leur permettent de contourner les détaillants traditionnels et de capter leurs marges de distribution. Dans un modèle réussi, le solde entre les coûts de distribution additionnels qu’entraine la mise en œuvre de la C&P et l’économie de la marge du détaillant est en effet positif.

Facturer un prix premium

La C&P offre également un potentiel important de majoration des prix : les consommateurs perçoivent la valeur supplémentaire des produits customisés et personnalisés. L’analyse d’un échantillon de produits personnalisés montre que la majoration de prix applicable augmente avec le degré de personnalisation. En moyenne, la prime observée pour ces produits est proche de + 50% par rapport au prix du produit de référence (voir graphique ci-dessous).

Graph 3. Analyse du taux de majoration des prix en fonction du degré de personnalisation

Ces majorations de prix tiennent également compte de l’adaptation du modèle commercial et de celle de la structure des coûts qui sont nécessaires pour passer d’un modèle de marché de masse à un modèle à la demande individuelle. Pour bénéficier pleinement de la valeur que la tendance C&P peut apporter, les entreprises de beauté doivent engager des investissements initiaux significatifs et également consentir des coûts de production et de distribution plus élevés.

Accroître la base de clients, fidéliser et augmenter la fréquence des commandes

Le passage d’une priorité produit à une priorité client et donc à des solutions personnalisées repose sur l’augmentation de la quantité et du spectre des données fournies par les clients finaux. Les données collectées vont au-delà des classiques coordonnées (adresse mail, numéro de téléphone, adresse postale, date d’anniversaire etc.) car les clients sont priés de saisir des informations individuelles : leur teint, leurs préférences en matière de produits (couleurs, nuances etc.), ce qu’ils en attendent, s’ils préfèrent des produits naturels etc. Fournir des solutions réellement personnalisées a un impact positif sur l’acquisition et la fidélisation des clients, ceux-ci étant significativement dissuadés de partir et se tourner vers d’autres marques.

De plus, la disponibilité, l’analyse ultérieure et l’utilisation de ces données consommateurs offrent aux laboratoires cosmétiques le moyen de concevoir et de mettre en œuvre leurs propres modèles commerciaux B to C. Cela permet non seulement de contourner les détaillants traditionnels, mais également de mettre en œuvre des modèles d’abonnement basés sur la personnalisation. De tels modèles existent déjà dans le secteur de la beauté, comme « The Dollar Shave Club », et même dans d’autres secteurs de la grande consommation, comme « Tails.com » de Nestlé, un abonnement personnalisé pour la nutrition des animaux de compagnie. Ces modèles permettent de sécuriser et d’augmenter la fréquence des achats en automatisant le processus de commande.

Une stratégie C&P réussie peut doubler la Valeur d’un client (Lifetime Value)2

Il y a beaucoup de valeur à créer via la C&P en tirant profit des avantages mentionnés ci-dessus : capter les marges des détaillants via la désintermédiation, bénéficier des premiums de prix (voir graphique 3), renforcer la fidélité des consommateurs et augmenter la fréquence des commandes (voir graphique 4).

Alors que les premiums de prix semblent constituer la source de création de valeur la plus évidente, nous avons constaté que l’acquisition et la fidélisation des consommateurs ainsi que la désintermédiation sont in fine les principaux axes de création de valeur de la C&P.

Les groupes de cosmétiques devront en outre réaliser des investissements initiaux, adapter leur organisation pour favoriser l’innovation, renforcer leurs capacités industrielles et concevoir des plates-formes numériques B to C. Ces investissements peuvent sembler lourds à porter à court-termed’un point de vue commercial, mais le coût de l’inaction s’avère supérieur. Les groupes inactifs pourraient très rapidement perdre leur attrait aux yeux des consommateurs.

Graphique 4. Impact de la tendance C&P et du e-commerce sur la LTV

En fin de compte, la tendance C&P n’est pas une astuce marketing mais un repositionnement économique majeur de l’industrie cosmétique susceptible de créer beaucoup de valeur et de rebattre les cartes du jeu concurrentiel.

____________

1 Alors que la customisation fait référence à des changements effectués par un utilisateur final pour adapter un produit à ses besoins spécifiques, la personnalisation est effectuée par le système lui-même, qui identifiera les clients et leur fournira un contenu correspondant à leurs caractéristiques individuelles.

2 La Lifetime Value correspond à la valeur monétaire d’une relation client, basée sur la valeur actuelle des futurs flux de trésorerie escomptés grâce à cette relation client.


Sophie Chassat
Philosophe, Associée chez Wemean

La crise nous a obligés à cesser de « regarder » un certain nombre de choses pour, enfin, les « voir ». Quelques mots sur cette distinction que l’on trouve sous la plume du philosophe Bergson. La plupart du temps, nous posons des « étiquettes » sur les situations, ce qui nous permet de les identifier rapidement pour passer ensuite à l’action : « lorsque nous regardons un objet, d’habitude, nous ne le voyons pas ; parce que ce que nous voyons, ce sont des (…) signes conventionnels qui nous permettent de reconnaître l’objet et de le distinguer pratiquement d’un autre, pour la commodité de la vie »1. Pourtant, ajoute Bergson, seule l’attention à l’unicité des choses nous permet de réellement les « voir » – et donc d’en mesurer toute la singularité pour apporter la réponse adéquate, nous adapter et réellement innover.

En nous plongeant dans une situation totalement inédite, la crise a fait voler en éclat nos filtres préconçus. Aveuglés d’abord, nos yeux se sont peu à peu décillés. Nous avons « vu » des dysfonctionnements que nous regardions auparavant comme normaux. Le « télétravail » a ainsi opéré comme un appareil optique, un véritable télescope nous faisant prendre du recul sur bien des choses : en voyant « de loin » (sens du préfixe télé-) nos modes de travail, ce zoom arrière nous a permis de mesurer, par exemple, l’importance des liens humains directs, comme Frédéric Duponchel le souligne dans son billet introductif.

Surtout, nous nous sommes mis à explorer nos points aveugles et nos territoires occultés, ces zones qu’identifie la « fenêtre de Johari »2, matrice qui nous rappelle quels sont nos perspectives et nos biais. Chaque individu comme chaque organisation possède sa zone publique (connue de soi et des autres), sa zone cachée (connue de soi mais pas des autres), sa zone aveugle (vue par les autres mais refoulée par soi) et sa zone inconnue (inconnue à la fois de soi et des autres) – c’est cette dernière exploration que la crise rend possible, ou plutôt nécessaire. Notons que, pour la réaliser, nombre d’organisations se penchent sur la clarification de leur « vision » : le fait que les sujets de « raison d’être » et de « mission » soient restés au premier plan de l’agenda des entreprises, démontre le caractère vital d’adopter de nouvelles façons de « voir » son business.

Pour s’entraîner à ces nouveaux coups d’œil, la lecture d’un ouvrage d’histoire de l’art paru récemment vaut à lui seul exercice de gymnastique oculaire : dans Le Strabisme du tableau. Essai sur les regards divergents du tableau3, Nathalie Delbard nous invite à parcourir avec un œil neuf des portraits classiques et à y découvrir que nombre des personnages représentés y louchent légèrement. Non en raison de problèmes de vue, précise d’emblée l’auteure, mais parce que les peintres nous engagent ainsi, nous spectateurs, à décentrer nos regards. Nos repères vacillent, mais de nouvelles perspectives s’ouvrent. Comme le chantait Apollinaire, « La Victoire avant tout sera / De bien voir au loin / De tout voir / De près / Et que tout ait un nom nouveau ».4

Sophie Chassat est philosophe, associée du cabinet de conseil WEMEAN et administratrice de sociétés. Elle intervient sur les sujets stratégiques liés au sens contributif des projets d’entreprise : leur définition, leur activation opérationnelle et leur impact dans la gouvernance. 

____________

1 Bergson, Conférences de Madrid sur l’âme humaine (1916) in. Mélanges.

2 La fenêtre de Johari a été conceptualisée par Joseph Luft et Harrington Ingham en 1955 pour représenter (et améliorer !) la communication entre deux entités.

3 De L’incidence Editeur, 2020.

4 « La Victoire », in. Caligrammes (1918).


Les conséquences pour les entreprises du développement de la finance verte

Franck Bancel
Academic Advisor

Depuis les accords de Paris signés en 2015, la lutte contre le réchauffement climatique s’est imposée à l’agenda des entreprises. La réduction des émissions de gaz à effet de serre est devenue un objectif prioritaire et nécessite la mise en place de nouveaux systèmes de pilotage. Dans ce contexte, la finance dite verte permettant le financement de projet respectueux de l’environnement est en train de prendre une place croissante. Le développement de la finance verte a des conséquences majeures pour les entreprises et pose de multiples questions :  Comment peut-on définir le concept de « finance verte » ? Qu’est-ce que cela implique pour les entreprises ? Quel est le rôle du secteur financier ? Quels instruments de financement ont été spécifiquement développés pour répondre aux besoins des entreprises ?

Qu’est-ce que la finance verte ?

La « finance verte » regroupe l’ensemble des activités financières qui visent à lutter contre le réchauffement climatique. C’est pour cette raison que la finance verte est également appelée « finance climat » ou « finance carbone ». La finance verte n’est pas la finance « durable ». Cette dernière, plus large, privilégie l’investissement responsable (IR) et ajoute aux critères purement financiers des critères environnementaux, sociaux et de gouvernance (ESG).

La finance verte remet en cause un des principes majeurs suivis par les financiers. Dans la vision traditionnelle, la finance n’a pas d’autres objectifs que de permettre l’allocation des ressources vers les projets les plus rentables, indépendamment de leurs impacts sur l’environnement. Pour la finance verte en revanche, seuls les projets favorisant la transition énergétique doivent être envisagés. Cela ne veut pas dire que la notion de rentabilité disparaît, car rien n’empêche les entreprises de choisir parmi les projets verts, ceux qui sont les plus rentables. Ce qui change, c’est l’ordre des priorités. La recherche de rentabilité est désormais subordonnée au caractère « vert » de l’investissement.

Qu’est-ce que le risque climatique pour les entreprises ?

Comme l’a expliqué Mark Carney dans son célèbre discours de 2015 sur « la Tragédie de l’horizon », le risque climatique peut être décomposé en trois risques distincts. Tout d’abord, l’avènement d’évènements climatiques extrêmes (cyclones, sécheresses, etc.) peut engendrer un risque physique qui se traduit par la destruction de certains actifs et des pertes d’activités pour les entreprises. Le risque de transition est lié aux changements réglementaires décidés par les pouvoirs publics qui peuvent amener certaines entreprises à remettre en cause leur modèle économique, voire à disparaître. Si l’on prend l’exemple du secteur automobile, du fait des changements réglementaires, la fabrication de moteurs thermiques (essence ou diesel) va diminuer drastiquement dans la décennie à venir alors que ces motorisations étaient totalement dominantes il y a quelques années.  Enfin, des risques de litiges associés au non-respect de la législation environnementale peuvent engendrer des dommages et intérêts significatifs. On peut imaginer que dans un futur plus ou moins proche des entreprises soient poursuivies en justice pour mise en danger d’autrui comme l’ont été par exemple, les entreprises de tabac.

A priori, on pourrait penser que la plupart de ces risques ne devraient pas se matérialiser à court terme et que les entreprises disposent de temps pour s’adapter. Nous pensons au contraire que les entreprises doivent anticiper ces risques et mettre rapidement en place les processus de gestion adaptés. Certains secteurs sont condamnés à se réformer dès à présent, car leur pérennité est engagée. Ainsi, dans le secteur « Oil and Gas », certaines majors ont commencé à investir massivement dans de nouveaux secteurs (batteries, électricité, etc.) et à se diversifier de manière significative. En ce qui concerne les secteurs moins émetteurs, l’urgence est moindre, mais la tendance est la même. Les grands groupes vont progressivement imposer à leurs sous-traitants de réduire leur empreinte carbone et la pression sera forte sur les PME. L’accès au financement dans de bonnes conditions va également supposer de respecter des critères en termes d’émission (et plus largement des critères ESG). C’est ce qu’expliquent les banques dont les modèles de distribution de crédit évoluent dans ce sens. L’image et la valeur de la marque sont désormais intimement liées à la capacité de l’entreprise à contribuer à la lutte contre le réchauffement climatique.

Comment les entreprises gèrent le risque climatique ?

Le risque climatique ne fait pas l’objet d’une gestion centralisée dans la plupart des entreprises. Aujourd’hui, deux grandes directions sont concernées par la gestion des enjeux climatiques : la direction du développement durable assure la gestion opérationnelle des projets compatibles avec la lutte contre le réchauffement climatique. Il s’agit de permettre à l’entreprise de respecter ses engagements climatiques en proposant des solutions opérationnelles pour réduire l’empreinte carbone sur l’ensemble des éléments de sa chaîne de valeur. Par exemple, peut-on substituer un matériau plus économe en gaz à effet de serre à un autre dans le processus de production sans altérer la qualité des produits finaux ? Comment sélectionner les fournisseurs les plus vertueux en termes d’émission, etc. ? La direction financière centralise les informations et assure le reporting financier et extra financier en lien avec la performance environnementale. Le reporting climatique va devenir un élément central de la communication financière d’une entreprise dans un contexte où l’information financière va se normaliser sous la pression de la communauté financière et des pouvoirs publics. Les investisseurs sont de plus en plus demandeurs d’information pour évaluer les émissions et au-delà l’ensemble des externalités négatives. Dans les années à venir, directions du développement durable et direction financière vont devoir coopérer davantage et coproduire de nouveaux indicateurs intégrant performance financière et performance environnementale.

Par ailleurs, les entreprises de certains secteurs (centrales électriques, installations de l’industrie manufacturière, etc.) sont soumises à un plafond d’émission. Elles disposent gratuitement d’une certaine quantité de droits (quotas) à émettre mais peuvent en acheter (ou en vendre) sur le marché en cas de manque (ou d’excédent). L’Union européenne s’est engagée dans une politique de réduction du nombre de quotas alloués, ce qui devrait mécaniquement se traduire par un accroissement de leur valeur dans la durée et engendrer de nouvelles contraintes pour les entreprises. 

Quel est le rôle du secteur financier ?

Pour le secteur financier, il s’agit de réorienter l’activité de manière prioritaire vers les projets compatibles avec la lutte contre le changement climatique. Les grands acteurs de la finance, qu’ils soient banques ou fonds d’investissement ont, pour la plupart d’entre eux, pris des engagements pour réduire l’empreinte carbone de leur portefeuille. Certaines banques ont ainsi renoncé à financer les entreprises opérant dans le secteur du charbon. Plus largement se pose la question du financement des entreprises « fossiles » dont la poursuite des activités remettrait en cause les objectifs de limitation du réchauffement climatique (certains auteurs parlent « d’actifs échoués » pour caractériser ces actifs fossiles). Les banques sont désormais dans l’obligation de mener des stress tests climatiques et de mesurer l’impact du risque climatique sur leur solvabilité. L’article 173 (paragraphe VI) de la Loi sur la Transition Énergétique pour la Croissance Verte impose aux sociétés de gestion de portefeuille de publier des informations sur la prise en compte de leur politique ESG et donc, sur les conséquences de leur investissement sur le climat.

Pour aider les investisseurs à mieux appréhender ce nouvel environnement, les pouvoirs publics ont mis en place dans plusieurs pays des écolabels qui imposent aux fonds labélisés d’investir significativement dans des actifs verts. C’est le cas en France du label Greenfin, au Luxembourg des labels LuxFLAG Environment et LuxFLAG Climate Finance et dans les pays nordiques du label Nordic Swan Ecolabel. Ces labels sont adossés à une taxonomie qui définit ce qu’est une activité économique « verte ». Les taxonomies jouent à ce titre un rôle majeur, car elles orientent les investisseurs dans leurs décisions d’investissement. Ainsi, l’Union Européenne a élaboré un projet de taxonomie qui distingue les activités neutres en carbone (transports bas-carbone, etc.), les activités en transition (rénovation de bâtiments, etc.) et celles qui rendent possible la transition (fabrication d’éoliennes, etc.).

Quels sont les instruments de la finance verte ?

Dans ce contexte, de nouveaux instruments de financement ont été développés par les marchés et les banques et visent à favoriser la mise en œuvre de la transition énergétique. Par exemple, les obligations vertes ont connu ces dernières années une croissance spectaculaire.  Ce sont des obligations pour lesquelles les fonds collectés doivent exclusivement être utilisés pour financer, ou refinancer, en partie ou en totalité, des projets verts. Pour une entreprise, émettre des obligations vertes engendre des coûts supplémentaires significatifs (coûts administratifs liés au processus d’émission, coûts légaux, coûts d’audit de l’émission, coûts du reporting, mobilisation plus importante de collaborateurs, etc.) pour une réduction du coût du financement très limitée. Selon la littérature financière, les coûts additionnels sont de 7 points de base alors que la prime n’est que de 2 points. Cependant, émettre des obligations vertes permet aux entreprises d’accroître la base d’investisseurs, de sécuriser l’émission même dans des conditions de marché difficiles et de générer des gains organisationnels (meilleure coopération entre les équipes chargées du financement des projets et les opérationnels, montée en compétence des équipes de financement sur les sujets liés à l’impact écologique, etc.). Les obligations vertes ne sont pas les seuls instruments de financement vert qui ont été développés. Les banques ont par exemple commencé à titriser des actifs verts (c’est-à-dire émettre sur le marché des titres dont la valeur est fondée sur le remboursement des prêts verts accordés). Le développement de ce marché dépendra cependant des régulateurs qui pourraient réduire les coûts en fonds propres des banques qui financent ce type de prêts (ou encore, renchérir le coût du financement des actifs « marron »).

En conclusion, la lutte contre le changement climatique est devenue en quelques années un nouveau paradigme. Pour une entreprise, considérer que l’on peut s’en affranchir et maintenir le « business as usual » apparaît comme un choix risqué. Cependant, si la route est tracée, de très nombreuses questions essentielles au déploiement des projets et des outils de la finance verte restent encore posées. La transition énergétique est un sujet particulièrement technique et les mesures physiques comme les mesures financières ne font pas l’objet de consensus ou sont insuffisantes. Cette convergence devrait s’opérer dans la décennie à venir et accélérera encore les changements en cours.


2021 : année éristique !

Hervé Goulletquer
Senior Economic Advisor

Gillian Tett, une des rédactrices en chef du Financial Times, remarquait récemment que, cette année à New York, les gens avaient plus de mal à se séparer de leur sapin de Noël. Comme si la crise de la COVID modifiait notre rapport au temps et aux lieux. Les vies privée et professionnelle s’entrecroisent, tout comme la résidence et le lieu de travail se confondent. Nos repères sont-ils en train de changer ? Va-t-on les retrouver quand l’épidémie aura enfin été mise derrière ?

Sans doute faut-il garder à l’esprit cette alerte sur de possibles changements comportementaux en cours, quand on s’interroge sur ce que nous réserve l’année 2021. Bien sûr, on se doit de commencer cet exercice de projection par jeter un œil sur les prévisions macroéconomiques. Elles sont porteuses d’espoir. Le FMI vient de revoir à la hausse son chiffrage pour la croissance mondiale : +0,3 point à 5,5%, après -3,5% en 2020. Comme si la perte d’activité économique générée par la crise sanitaire allait être plus que rattrapée ! Peut-on alors dire que tout rentre dans l’ordre, avec un retour au business as usual ?

En fait non et il faut sans doute multiplier les approches pour appréhender la période qui s’ouvre devant. Proposons-en quelques-uns :

Ne quittons pas de suite le terrain macroéconomique et notons plusieurs points. 

1. La reprise reste très conditionnée par les développements sur le front sanitaire. Que le reflux de l’épidémie soit plus tardif ne serait-ce que de quelques mois et voilà un premier semestre en partie perdu pour la reprise ; la performance annuelle en sera nettement affectée. Prenons l’exemple de la Zone Euro. La croissance a reculé de plus de 7% en 2020. Sous l’idée communément acceptée d’un net reflux de l’épidémie à compter du printemps, le rebond atteindrait entre 4% et 4,5% cette année. Décalez le reflux d’un trimestre et la croissance se trouve amputée de l’ordre d’un tiers !

2. Les « gros chiffres » de croissance dont on parle ne doivent pas masquer le point que retrouver la trajectoire anticipée avant l’épidémie va demander du temps. Selon la Banque Mondiale, il manquerait en 2022 4000 milliards de dollars de richesses créées. C’est peu ou prou la taille de l’économie allemande et cela fait donc beaucoup. Faut-il craindre d’être « condamné » à un nouvel épisode de ralentissement de la croissance potentielle, suite à une crise majeure, même si son origine n’est ni économique, ni financière ? Pour s’assurer de ne pas devoir répondre positivement à la question posée, s’engager dans une politique de relance, privilégiant l’offre à la demande, apparaît nécessaire. Cela sera-t-il le cas ?

Il faut aussi s’interroger sur ce qu’il y a derrière ces chiffres qui retracent les évolutions d’agrégats économiques très larges. Dans des moments compliqués, comme ceux vécus à l’heure actuelle, on observe souvent, derrière les moyennes affichées, une augmentation des écarts-types. Ainsi, certains ménages, certaines entreprises ou certains pays souffrent davantage. Les personnes les moins qualifiées ont été plus impactées par le retournement du marché du travail. Combien de temps faudra-t-il pour que l’amélioration de l’emploi aille jusqu’à eux ? Il est clair aussi que les perspectives ne sont pas les mêmes pour une petite entreprise du secteur du tourisme que pour une autre intervenant dans le digital et dont les activités sont déployées autour du globe. Enfin, un pays largement présent dans les industries manufacturières et disposant d’importantes marges de manœuvre de politique de soutien (l’Allemagne par exemple) s’en sort mieux qu’un autre spécialisé dans les services à contenu en main d’œuvre élevé et contraint par des comptes publics dégradés depuis longtemps. Il faut alors s’interroger sur les implications de cette divergence sur l’économique, le social et le politique. Vers moins de croissance (la théorie du convoi ?), plus d’inégalités et au final des Sociétés moins harmonieuses, tant à l’intérieur de chacune qu’entre elles, et donc plus difficiles à gérer ? Si c’est le cas, quelles mesures devraient-elles être prises pour parer à ces risques ?

Il y a aussi les modifications de comportements induits par la crise.

1. Toute une série d’innovations déjà en cours accélère ; qu’il s’agisse de digitalisation, de vente à distance, de télétravail, de télémédecine, d’intelligence artificielle ou de biotechs.  Certains secteurs (les services de transport et les branches industrielles en amont par exemple) auront à se réinventer.

2. Les ménages et les entreprises pourraient modifier leur arbitrage entre dépense et épargne : vers davantage de précaution, « juste au cas où », et donc un niveau d’épargne plus élevé ? Les implications économiques et financières seraient importantes : une tendance de l’investissement en retrait et des taux d’intérêt s’équilibrant une nouvelle fois un cran plus bas qu’auparavant.

3. Les responsables des politiques publiques font alors face à un environnement compliqué à appréhender dans tous ses aspects : gérer le passé (une dette publique alourdie et élevée) et préparer l’avenir (faciliter les changements structurels vers la transition énergétique et environnementale et aussi vers le digital). Avec au final quelles conséquences sur le profil de la productivité et de la croissance ou sur la performance financière des entreprises ? Au bout de combien de temps tout ceci sera visible, si tant est que cela arrive ?

Quand demain ne se dessine pas très bien, il est humain de s’accrocher à ce qu’on connaît, c’est-à-dire à hier. Mais ce back to basics ne fait sens qu’en tant qu’appui pour sauter vers les opportunités offertes par un monde qui change : « le vieux, la crise, le neuf », comme souvent. Gardons plus longtemps que d’habitude notre sapin de Noël si cela nous rassure ; mais soyons surtout attentifs aux signaux faibles d’un monde en transformation. Car c’est ainsi qu’on avance !

Accuracy conseille Korian

Accuracy a assisté Korian dans la structuration, la modélisation et la conclusion d’un partenariat immobilier majeur avec BNP Paribas Cardif et EDF Invest. Ce partenariat de long-terme porte sur un véhicule pan-européen de 81 actifs de santé qui sera contrôlé et géré par le groupe Korian.

L’électrification des transports publics épisode 2 – Un marché à fort potentiel pour les industriels, opérateurs et investisseurs

L’ÉLECTRIFICATION DES TRANSPORTS PUBLICS
Retrouvez l’épisode 1 (en anglais) : Trois éléments déterminants pour une électrification rapide de nos transports publics

 

EN SYNTHESE

Depuis une vingtaine d’années, les prises de conscience écologique dans les décisions politiques et collectives ont conduit de nombreuses villes à travers le monde à mettre la mobilité « propre » au cœur de leurs préoccupations. Il s’agit de développer les véhicules à faibles émissions de polluants locaux (NOx, particules fines, etc.) et de polluants atmosphériques (gaz à effet de serre).
On parle d’un véhicule « propre » lorsque celui-ci produit peu ou pas d’émissions polluantes mais en pratique, aucun véhicule n’est réellement propre. Tous émettent des polluants locaux et des gaz à effet de serre lors de leur fabrication, de leur utilisation et de leur fin de vie.

Cet article traite principalement de la mobilité « zéro émission directe » (nommée zéro émission ou ZE par souci de simplification) qui n’émet aucune pollution directe (d’échappement), à la différence de la mobilité décarbonée qui émet peu ou pas de CO2, et qui elle dépend du mix énergétique de chaque pays.

Les réglementations européennes imposant des transports publics basse ou zéro émission ont fait croître le nombre d’appels d’offres émis par des métropoles pour ces modes de transport et, en France, la loi LTECV (Loi de Transition Energétique pour la Croissance Verte ) programme des investissements dans les infrastructures de transport.

A l’heure actuelle, les bus à batterie électrique sont les solutions les plus avancées d’un point de vue technique et industriel en matière de transport zéro émission. La demande de bus électriques à batterie est donc en forte hausse en Europe et la capacité des opérateurs à mettre en place ces véhicules dans les villes, tout en trouvant un équilibre économique, présente un fort enjeu stratégique.

En amont, la construction d’une filière industrielle de batteries électriques en Europe est en cours afin de répondre à cette demande, de sécuriser l’approvisionnement provenant actuellement majoritairement de Chine, créer des emplois… et également répondre à une nécessité environnementale. En effet, dans les analyses de cycles de vie, lorsque la batterie est fabriquée en Chine, le bilan environnemental du véhicule électrique, en prenant en compte la fabrication et transport, peut être décevant. Cependant, le déploiement de flottes électriques est complexe : il requiert un investissement initial plus important que pour une flotte classique, à la fois pour l’acquisition de la flotte elle-même et pour la mise en place des infrastructures (adaptation et modernisation des centres bus et dépôts, puissance de rechargement, etc.). Il implique de surcroît des contraintes d’exploitation plus lourdes (temps de rechargement, gestion de la performance des batteries, etc.). La mise en place de ces flottes de transport public électrique exige donc des choix financiers et stratégiques complexes de la part des industriels, des investisseurs et des opérateurs.

Le travail de fond que nous avons mené et synthétisé dans le présent document permet de comprendre les évolutions à l’œuvre dans le secteur des batteries électriques, mais aussi d’identifier les principaux leviers de création de valeur, en fonction de divers scénarios à l’échelle de la batterie, du bus ou de la flotte. Nous mettons enfin en lumière d’autres tendances dans la mobilité de demain, qui sont à envisager d’un point de vue aussi bien stratégique (nouveaux business models) que technologique (pile à hydrogène).

A. La production de batteries électriques est actuellement assurée à 90% par l’Asie (60% par la Chine à elle seule). Devant la forte croissance du marché, le désir d’assurer une certaine indépendance et la volonté d’obtenir une réelle amélioration du bilan environnemental, une filière européenne de batteries électriques est en train d’émerger, basée sur plusieurs consortiums.
La construction de cette filière s’accompagne d’une augmenta-tion des capacités de production au niveau mondial, qui aura pour conséquence la diminution du prix d’achat.

B. Les coûts de revient par kWh seront également réduits d’une part grâce aux innovations technologiques en cours, et d’autre part grâce à l’amélioration des techniques de recyclage et à l’augmentation de la capacité des batteries.

C. Notre analyse de la chaîne de valeur et de la structure de coûts d’une batterie a permis d’identifier les étapes de production présentant le plus de valeur ajoutée. Puis, une analyse chiffrée a permis d’évaluer des leviers créateurs de valeur : le Smart Charging ainsi que le recyclage s’avèrent être deux points clés dans la maximisation de la valeur économique de la batterie sur l’ensemble de son cycle de vie.

D. La réalisation de choix stratégiques à certaines étapes clés du cycle de vie de la batterie sont cruciaux pour exploiter au maximum son potentiel de création de valeur. En particulier, la manière de réutiliser la batterie en fin de première vie permet d’optimiser son potentiel économique.

E. Un modèle financier intermédiaire faisant l’articulation entre le modèle du producteur et celui de l’opérateur de bus électriques est en développement : il s’agit du Battery as a Service (BaaS). Ce modèle propose à l’opérateur historique d’utiliser une batterie qui ne lui est ni vendue ni en location simple, mais mise à disposition au moyen d’un contrat souple et sur mesure adapté à ses besoins à tout moment.

F. Par ailleurs, d’autres alternatives de transports en commun basse ou zéro émission émergent aux côtés des véhicules à batteries électriques, tels que les bus électriques à hydrogène (zéro émission) ou les bus au bio gaz naturel (basse émission). Autant d’arbitrages à effectuer pour les investisseurs, opérateurs et autres acteurs de ce secteur, et qui nécessitent un accompagnement stratégique sur mesure.

 

INTRODUCTION

Les nouvelles réglementations et l’accessibilité économique ont fait naître ou grandir dans de nombreuses villes l’ambition de réduire les émissions de CO2 en mettant en place des flottes de transport public zéro ou basse émission. Par ailleurs, les Accords de Paris pour le Climat ainsi que les lois relatives à la transition énergétique en Europe ont fixé des objectifs précis d’ici 2025 et 2030, en particulier la loi LTECV (Loi de Transition Energétique pour la Croissance Verte ) d’août 2015 en France. Enfin, depuis une dizaine d’années, l’amélioration des performances des batteries électriques, la diversification de l’offre (autonomie, capacité, temps de charge, …), une demande en forte croissance et la baisse des prix ont permis un essor de la mobilité électrique.

Le secteur des transports zéro émission (électrique à batterie ou à hydrogène) ou basse émission (biogaz) se révèle encore plus stratégique dans cette période post-confinement liée au Covid-19, qui a mis davantage en lumière les enjeux de transition énergétique. Comme rappelé par l’ONU, le COVID-19 « donne l’occasion à l’humanité de transformer cette crise en un élan planétaire pour atteindre les objectifs de développement durable d’ici 2030 ».

Cependant, le parcours entre l’ambition et la mise en œuvre est semé d’embûches. Par exemple la ville de Paris, via la RATP et Ile-de-France Mobilités, visait une flotte de bus 100% propres d’ici 2025, avec 80% de bus électriques et 20% de bus à gaz naturel (« plan bus 2025 »), mais les contraintes économiques sont telles qu’aujourd’hui l’objectif est plutôt de remplacer les deux tiers seulement de la flotte par des bus électriques, le dernier tiers étant constitué de bus biogaz (bio-GNV)1. Ces contraintes concernent aussi bien l’investissement financier que les modèles économiques et opérationnels d’exploitation.

Mais commençons par rappeler les enjeux actuels du marché des batteries électriques.

 

1. LE MARCHE ACTUEL DES BATTERIES ELECTRIQUES

A. L’essor d’une filière industrielle européenne durable et compétitive des batteries électriques

Depuis une dizaine d’années, le marché des batteries Lithium-ion a explosé et, aujourd’hui, deux grandes tendances se distinguent (figure 1) :

• La baisse du prix des batteries Lithium-ion, qui s’élevait à 209$ par kWh en 2017 et devrait descendre sous la barre des 100$ par kWh d’ici 2025 ;

• L’augmentation de la capacité de production mondiale, estimée à 13% par an en moyenne entre 2018 et 2030.

Aujourd’hui, la production mondiale de batteries Li-ion tous usages confondus totalise une capacité de l’ordre de 500 GWh. L’Asie, et en particulier la Chine, est largement leader dans ce secteur : la production chinoise à elle seule représente environ 10 fois la production européenne.

Ainsi, 7 des 10 premiers producteurs de batteries Li-ion au monde sont chinois – le leader étant le géant CATL – représentant une capacité de l’ordre de 300 GWh2.

 

Figure 1 : Evolution de la capacité de production et des prix des batteries Li-ion tout usage entre 2005 et 20303 4 5

 

Le sous-périmètre des véhicules électriques à batterie Li-ion représente 70% de ce marché, soit environ 350 GWh. Et 40% de ce sous-périmètre concerne plus particulièrement les bus et autres véhicules commerciaux, soit 140 GWh. Cette production est également largement dominée par la Chine et en particulier l’entreprise chinoise CATL (70%6 du marché des batteries de bus), du fait que l’électrification des flottes de bus en Chine ait été poussée par le gouvernement beaucoup plus tôt qu’en Europe : dès 2009, la ville de Shenzhen a bénéficié de subventions gouvernementales pour le développement de sa flotte électrique.

Même si la production reste majoritairement chinoise, les Etats-Unis et l’Europe devraient gagner des parts de marché : 40% de la production mondiale de batteries électriques en 2030, contre 10% seulement en 2020. Cet essor des capacités de production non-asiatiques conduira à un meilleur équilibre entre offre et demande et participe donc à une baisse des prix, tout comme les gains de productivité des usines du fait d’économies d’échelle, et l’augmentation de la capacité des chaînes de production. Ainsi, la gigafactory du constructeur Tesla dans le Nevada produira 35 GWh annuels en 2020 contre 20 GWh en 2018. De même, la société suédoise Northvolt, partant d’une capacité initiale de 16 GWh, envisage le doublement de la capacité de production de son usine d’ici 2030 et atteindra 150 GWh en 2050.

Pour ce qui est de l’Europe plus particulièrement, la filière européenne se construit là où les risques politiques sont faibles, les incitations financièresimportantes, et les démarches administratives facilitées. Il faut un accès aisé à de la main d’œuvre qualifiée, des ressources énergétiques fiables,ainsi qu’un approvisionnementde matières premières sécurisé. Toutes ces conditions sont réunies en Europe, où l’engagement pour la transition vers un système faible en émission est par ailleurs important. La présence d’ingénieurs hautement qualifiés est également un atout pour les années à venir, dans un contexte d’évolutions technologiques rapides. Tous ces éléments ont fait de l’Europe une zone à haut potentiel pour la production de batteries électriques, et des moyens politiques et financiers importants y sont mobilisés pour faire émerger des projets européens ou transnationaux.

Ainsi, comme le montre la figure 2 ci-dessus, même si l’Asie reste dominante sur le marché des batteries électriques, un rééquilibrage international va s’opérer d’ici 2030, en particulier au niveau européen.

 

Figure 2 : Evolution de la capacité de production des batteries Li-ion par région (localisation selon le siège social des entreprises)4

 

La figure 3 présente le panorama actuel de la production de cellules et de batteries électriques en Europe. On y voit la forte implantation d’acteurs asiatiques, ainsi que les projets européens de construction d’usines de très grande envergure, visant à structurer une filière industrielle durable et viable économiquement.

Le programme de l’Union européenne European Battery Alliance (EBA250), lancé en octobre 2017, est constitué de 17 entreprises privées directement impliquées sur toute la chaîne de valeur : BASF, BMW, Eneris, et surtout la coentreprise ACC (Automotive Cells Company) entre PSA (et sa filiale allemande Opel) et SAFT (filiale de TOTAL). Elles sont accompagnées par plus de 120 autres entreprises et organismes de recherche partenaires, ainsi que des acteurs publics tels que la Banque européenne d’Investissement. L’objectif est de développer des technologies hautement innovantes et durables pour des batteries Li-ion (à électrolyte liquide et à semi-conducteurs) plus sûres, plus respectueuses de l’environnement, présentant une durée de vie plus longue et un rechargement plus rapide que celles actuellement sur le marché. EBA250 bénéficie de 5 milliards d’euros de financement privé et 3,2 milliards d’euros de financement public, dont 1 milliard provenant de la France et 1,2 milliard de l’Allemagne.

 

Figure 3 : Projets d’usines de production de cellules et de batteries en cours en Europe7 8 9 10 11 12

 

Concrètement, ACC, souvent appelé l’« Airbus des batteries », va construire une usine pilote dans le sud-ouest de la France, puis deux usines de production de cellules pour batteries électriques dans les Hauts-de-France et en Allemagne. Un autre projet majeur, de construction d’une gigafactory, est porté par la start-up française Verkor13 (soutenue notamment par Schneider Electric) et vise à produire des cellules Li-ion pour l’Europe du sud (France, Espagne, Italie) à partir de fin 2023. Ce projet s’inspire directement de la start-up suédoise Northvolt qui a levé 1 milliard d’euros auprès d’investisseurs privés (dont Volkswagen, BMW et Goldman Sachs) pour financer la création d’une usine de production de batteries lithium-ion en Suède. Le projet de Verkor représente 1,6 milliard d’euros d’investissement et l’usine s’étalant sur 200 hectares s’implantera probablement en France. De la même manière, l’entreprise norvégienne Freyr a lancé la construction d’une usine de fabrication de cellules de batterie en Norvège (4,5 milliards d’euros) qui aura une capacité de 32 GWh dès 2023, et sera l’une des plus grandes en Europe.

Enfin, d’autres projets se développent pour construire une filière européenne de recyclage des batteries, étape clé de la chaîne de valeur. Porté par Eramet, BASF et Suez, le projet ReLieVe (Recycling for Li-ion batteries for Electric Vehicle) – avec un budget de moins grande ampleur de 4,7 millions d’euros – vise à développer un procédé innovant et compétitif de recyclage, dit « en boucle fermée », permettant la valorisation du nickel, du cobalt, du manganèse et du lithium dans de nouvelles batteries.

 

B. De meilleures performances grâce à de nouvelles technologies de conception et de recyclage conduisent à une baisse des coûts de revient

Les performances techniques telles que l’autonomie ou la capacité spécifique (énergie stockée par unité de masse) des batteries électriques devraient tripler d’ici 2030 grâce à de nouvelles technologies de batteries, comme le montre la Figure 4 à droite. Des innovations incrémentales des batteries Li-ion permettront à court terme de remplacer les métaux rares tels que le cobalt et le manganèse, utilisés pour la fabrication des électrodes, trop chers et polluants. La diminution de 33% de la teneur en cobalt, partiellement remplacé par du nickel bien moins coûteux, permettra de compenser l’augmentation du prix du cobalt de 40% prévue entre 2020 et 2030. Avec 60% de nickel, 20% de manganèse et seulement 20% de cobalt, la technologie NMC 622 va remplacer les batteries de type NMC 111 (contenant un tiers de cobalt) et représenter 30% du marché en 2030. A l’horizon 2030, on s’attend à voir apparaitre des technologies de rupture, avec notamment de nouvelles cathodes et avec une électrolyte solide augmentant sensiblement la fiabilité de la batterie. Les batteries actuelles à électrolyte liquide fonctionnent efficacement à température ambiante et sur une plage maximum entre 0° à 45°C14, alors que l’utilisation d’électrolytes solides permet une utilisation plus large, entre -20°C et 100°C15. Par ailleurs, Samsung a récemment breveté une batterie dans laquelle des boules de graphène recouvrent la cathode et l’anode : celle-ci a alors une vitesse de recharge cinq fois supérieure. Les batteries à anodes en silicone, quant à elles, offrent des capacités plus importantes grâce à la substitution de l’anode en graphite habituelle par une anode en silicone issue de la purification du sable.

 

Figure 4a : Evolution des technologies de batteries à l’horizon 203016 17

 

Figure 4b : Evolution des parts de marché des différentes technologies de batteries Li-ion à l’horizon 2030

Enfin, les coûts de recyclage devraient décroître à mesure que les techniques actuelles (hydrométallurgie et pyrométallurgie) seront mieux maîtrisées. Une nouvelle technique bien moins coûteuse est en cours de développement, il s’agit du procédé « de valorisation directe » : l’électrolyte et les matériaux constitutifs des cathodes sont récupérés directement pour être réutilisés sans traitement métallurgique. La figure 5 ci-après présente les avantages et inconvénients de chacune de ces méthodes de recyclage.

 

Figure 5 : Nouvelles méthodes de recyclage : des solutions moins coûteuses et plus respectueuses de l’environnement18 19 20

La conjugaison des éléments précédemment cités (performances améliorées, diminution des proportions de matériaux rares, nouveaux procédés de recyclage) permet une réduction drastique des coûts de revient d’ici 2030, faisant du marché des batteries électriques un secteur prometteur pour les investisseurs. Notre modèle de structure de coût (cf. figure 6 ci-dessous) indique que d’ici 2030, le coût de revient d’une batterie NMC 111 sera réduit d’au moins 25% par rapport à son niveau actuel.

Pour les futures technologies de batterie cette réduction sera plus importante. Par exemple, Tesla annonce une réduction de 56% d’ici 2022 du prix de production au kilowattheure de ses nouvelles batteries grâce à une série d’améliorations techniques. Bien que les coûts soient appelés à diminuer significativement, l’équation financière des flottes de véhicules électriques demeure complexe. Notre analyse du cycle de vie de la batterie, de la structure de coûts et des facteurs de performance permet d’identifier quelques leviers de création de valeur susceptibles de faire toute la différence pour les opérateurs de transport.

 

Figure 6 : La structure de coût d’une batterie (NMC 111) permet d’anticiper son coût de revient d’ici 2030

 

2. MAXIMISER LA VALEUR D’UNE BATTERIE GRACE AU DETAIL DES COÛTS AU COURS DU CYCLE DE VIE

A. Une structure de coûts qui révèle les étapes ayant la plus forte valeur ajoutée dans le cycle de fabrication d’une batterie

La chaîne de valeur des batteries électriques se décompose en plusieurs étapes (figure 7) : approvisionnement en matières premières, fabrication des composants chimiques de base, conception et production de cellules générant l’énergie électrique, conception et production de modules, fabrication des packs (protection mécanique contre les chocs, vibrations), intégration de la batterie dans des systèmes intelligents de contrôle et de gestion des performances (Battery Management System) et, enfin, recyclage des composants et métaux en fin de vie, qui implique une revalorisation de la batterie afin de gagner de la valeur.

 

Figure 7 : Chaîne de valeur d’une batterie électrique : enjeux et challenges21 22

 

Pour établir la structure de coûts d’une batterie, nous avons étudié chaque étape afin d’évaluer son impact sur la valeur d’une batterie neuve. Quatre types de dépenses sont communs à chaque étape : frais d’achats (matières premières ou composants), coûts de main d’œuvre, frais de R&D et frais fixes (dépenses liées à l’électricité ou aux matériaux supplémentaires nécessaires à la conception des cellules).

L’étape de fabrication des composants de base de la batterie est la plus coûteuse (26% du coût total), car elle concerne les nombreux éléments constituant les électrodes et le solvant contenu dans l’électrolyte. L’intégration de la batterie dans un système intelligent constitue également une étape clé (22%) en raison de l’importance du software pour le suivi des performances de la batterie, qui nécessite un investissement important en R&D. Cette étape est aussi celle qui présente la plus forte valeur ajoutée, dans la mesure où l’augmentation de la production ne va pas conduire à une explosion du coût des recherches R&D, ces dernières ayant déjà été réalisées en amont. Enfin, l’étape de conception et de production de cellules est la 3ème plus coûteuse et est caractérisée par des coûts de main d’œuvre et des frais de R&D significatifs.

 

Figure 8 : Chaîne de valeur d’une batterie NMC 111 en 202023 24

 

B. Identification des étapes-clés du cycle de vie pour maximiser la valeur de la batterie

Le State of Health (SoH) d’une batterie, l’état de santé de la batterie, est un indicateur servant à optimiser son utilisation. Les contrats de mobilité auprès d’opérateurs de bus électriques sont généralement prévus entre 100% et 80% du SoH. Au-delà, la batterie n’est plus utilisable avec la même sécurité et la même efficacité, c’est la fin de sa première vie. La batterie est alors à un moment de clé de son cycle de vie où des choix doivent être faits : si les performances le permettent la batterie peut être prolongée dans un autre contrat, ou bien elle peut être réaffectée à du stockage d’énergie stationnaire en seconde vie (pour par exemple équilibrer le réseau), ou encore revendue en fin de vie pour être recyclée et certains de ses composants sont alors raffinés pour être réutilisés.

 

Figure 9 : Cycle de vie d’une batterie électrique (en fonction du SOH)

 

Le State of Health (SoH) d’une batterie permet d’évaluer son état. Quatre facteurs peuvent entraîner une dégradation (baisse de la capacité et augmentation de la résistance interne) d’une batterie :

• La température (T) : les températures extrêmes affectent négativement l’état de santé d’une batterie. A hautes températures, l’activité interne des batteries augmente diminuant leur capacité ; et sous 0°C, la résistance interne augmente considérablement, accélérant ainsi le vieillissement des batteries25.

• La vitesse de charge et de décharge (C-rate) : elle correspond à l’intensité du courant électrique traversant la batterie. Plus elle est élevée, plus le vieillissement de la batterie s’accélère.

• L’état de charge (SoC – State of Charge) : il s’agit du pourcentage d’énergie stockée par la batterie, par rapport à son état de charge totale. La capacité de la batterie diminue non seulement durant la charge/ décharge mais aussi, dans une moindre mesure, lorsqu’elle n’est pas utilisée ou stockée si elle n’est pas vide. Un stockage des batteries avec un SoC relativement faible est donc préconisé pour limiter leur dégradation. Pour optimiser sa durée de vie, le rechargement d’une batterie à 100% pour équilibrer des cellules devrait aussi être occasionnel.

• L’état de décharge (DoD – Depth of Discharge) : il représente le pourcentage d’énergie qui a été perdue par la batterie depuis sa dernière recharge et donc caractérise son profil de charge. Plus de DoD est profond plus la batterie se dégrade rapidement. Selon le type de batterie utilisé, le DoD optimal (difficilement possible opérationnellement !) varie entre 50% et 70%.

 

La connaissance des facteurs de dégradation de la batterie permet d’anticiper cette dégradation en fonction à la fois de l’utilisation qui en est faite, de sa technologie, du suivi de ses performances et de sa conservation. Par exemple, les modes de charge et de décharge varient fortement selon que la batterie est utilisée en zone urbaine ou périurbaine – un usage périurbain conduira à une dégradation plus importante du fait de l’importance des distances parcourues, qui nécessitent des recharges plus fréquentes et rapides.

Partant de ces facteurs, nous avons mis en exergue des leviers créateurs de valeur pouvant être activés pour contrôler et maximiser la valeur de la batterie au cours de son cycle de vie. Ces leviers concernent l’optimisation de l’utilisation, la gestion de ses performances ou encore la gestion des batteries usagées.

 

Figure 10 : Les 10 leviers créateurs de valeur d’une batterie électrique

 

Un de ces leviers est le smart charging, c’est-à-dire l’ensemble des technologies intelligentes et innovantes permettant la recharge des bus électriques au moment optimal : non-saturation du réseau en demande d’électricité, absence de concomitance des pics de demande entre ménages et véhicules électriques, par exemple.

Un deuxième levier intéressant concerne l’amélioration des techniques de recyclage, entraînant une dynamique de baisse des coûts de recyclage. En effet, l’amélioration continue des techniques actuelles (hydrométallurgie et pyrométallurgie) et l’apparition de nouvelles techniques efficaces (procédé « de valorisation directe ») contribuent à privilégier au fil du temps une utilisation prolongée de la batterie dans un 2ème cycle de vie puis un recyclage, au lieu d’une utilisation plus courte qui se limiterait au 1er cycle de vie puis à la vente de la batterie.

Enfin, un troisième levier concerne la gestion de la performance de la batterie-, et donc des savoir-faire associés au suivi des performances. Des contrats dits « de maintenance » sont proposés par les fournisseurs de batteries, dans le cadre desquels le suivi se fait en mesurant différents paramètres (SoC, DoD,C-rate, intensité de charge, température en charge/décharge…) via un Battery Management System (BMS) : la batterie subit divers cycles de charge et de décharge en conditions variables, et l’analyse des données collectées par le BMS peut conduire à son remplacement si elle est trop dégradée ou si les conditions d’utilisation du contrat ne peuvent plus être respectées, en particulier de sécurité. Mais ce suivi des performances s’avère actuellement relever davantage d’une assurance que d’une maintenance à proprement parler. C’est pourquoi un levier créateur de valeur consisterait à renégocier le contrat pour le rapprocher des coûts réels de suivi des performances ou bien à internaliser ce savoir-faire pour des raisons plutôt stratégiques que financières. En effet, le contrôle des données d’exploitation et d performance des batteries en temps réel est un enjeu crucial, car il permet d’adapter les technologies de batteries au plus près de l’utilisation qui en est fait.A noter néanmoins que ce dernier levier est difficilement applicable à l’heure actuelle car de nombreux constructeurs de batteries ne permettent pas à leurs clients d’internaliser cette prestation.

A titre d’illustration, nous avons modélisé dans l’exemple ci-après les effets de différents leviers pour une flotte de 25 bus, dans un contexte urbain et dans un contexte péri-urbain. Les alternatives étudiées sont : le smart charging ou non au cours de la 1ère vie, la revente de la batterie ou la réutilisation dans un nouveau contrat en fin de 1ère vie, ou bien encore la réutilisation dans des infrastructures de stockage d’énergie stationnaire en 2ème vie (en tant que réserve de capacité dans ce cas particulier). Nous constatons alors que :

• Le smart charging crée systématiquement de la valeur, et présente en outre l’avantage d’être simple à mettre en œuvre ;

• La régulation de fréquence n’est pas intéressante, en raison d’un coût d’investissement élevé, d’une durée de seconde vie trop faible et d’un prix de revente de l’énergie trop faible en France ;

• L’utilisation dans un nouveau contrat en fin de 1ère vie, plutôt que la revente en fin de 1ère vie, est surtout intéressante dans le scénario urbain, car la batterie se dégrade moins rapidement dans ce scénario.

Autant de facteurs de décisions opérationnelles qui ont un impact réel sur le modèle économique des flottes électriques. Cela dit, au-delà de ces leviers permettant aux opérateurs d’optimiser les performances des batteries, d’autres pistes encore sont à explorer face aux complexités du modèle classique des bus électriques : le premier consiste en un nouveau modèle financier et opérationnel de gestion de ces bus, et l’autre est constitué de modes alternatifs de transport basse ou zéro émission.

 

Figure 11 : Calcul de la NPV d’une batterie NMC selon l’utilisation et l’activation de certains leviers26 27

 

3. DE NOUVELLES PERSPECTIVES DANS LA GESTION DES BUS ZERO EMISSION

A. L’émergence de nouveaux modèles économiques : le modèle BaaS

Malgré l’importance des avancées technologiques et la réduction prévisible du coût de revient d’une batterie électrique, les contraintes techniques restent importantes pour les opérateurs de transport électrique. Tout d’abord, l’investissement en capital immobilisé est bien plus important que pour des véhicules classiques (Capital Expenditure supérieur de plus de 50% à celui d’une flotte diesel28). En outre, la maîtrise des performances, la maintenance des batteries et les décisions à prendre lorsque leur efficacité est réduite sont des paramètres complexes à mettre en œuvre pour les opérateurs de bus historiques. Dans ce contexte, l’émergence du modèle BaaS (Battery as a Service) semble naturelle.

Le Battery as a Service consiste à libérer les opérateurs des contraintes et risques liés à la gestion d’une batterie. Le prestataire, l’opérateur BaaS, s’occupe de tous les aspects liés à son utilisation, de la certification de la batterie (conforme aux normes de sécurité ou aux normes environnementales) à son recyclage en passant par le suivi des performances. L’opérateur BaaS s’assure qu’à tout instant le service fourni est conforme aux attentes du client, dans une logique d’optimisation de la valeur. Il se charge ainsi de trouver le contrat et le profil d’utilisation optimal pour la batterie, en fonction de l’étape du cycle de vie – et donc en fonction des performances – de celle-ci à un instant donné. C’est la maîtrise des différents leviers de valeur, ainsi que la connaissance fine des performances de la batterie, qui permettent à l’opérateur BaaS de déterminer le profil parfait de client ou de contrat adapté à sa batterie. Parmi les entreprises de BaaS les plus connues, on peut citer Global Technology Systems, Yuso, Swobbee ou encore Epiroc.

 

Figure 12 : Trois business models différents

 

B. Le développement de nouveaux modes de transport basse ou zéro émission

 

Figure 13 : Prévisions du nombre de bus électriques et à hydrogène jusque 2025

 

Parallèlement à l’essor des bus à batteries électriques, d’autres mobilités propres se développent, telles que les bus à basse émission fonctionnant au bio Gaz Naturel pour Véhicules (bio-GNV) ou les bus zéro émission à hydrogène. Ces technologies sont en forte croissance à travers le monde, malgré des écarts de maturité selon les pays.

En fonction de la source énergétique locale, les bus fonctionnant au bio-GNV constituent une technologie basse émission (réduction de 25% des émissions de fumées toxiques en comparaison avec les véhicules à essence) qui a l’avantage d’avoir une excellente autonomie et un temps de recharge court. Cependant les infrastructures à mettre en place sont lourdes et coûteuses.

Les bus ZE électriques (batterie ou hydrogène) sont deux technologies complémentaires. En effet la technologie hydrogène (plus coûteuse) est pertinente là où la batterie atteint ses limites ou alors dans de futurs cas (saturation réseau par exemple). Mais surtout, cette technologie zéro émis-sion offre une autonomie importante et des cycles de recharge relativement courts (Air Liquide estime qu’un bus peut être rechargé en moins de 20 minutes29). Néanmoins, l’infrastructure requise est lourde (bornes de rechargement en hydrogène) et le réseau est pour le moment inexistant ou à l’état embryonnaire dans la plupart des grandes villes. De nombreuses agglomérations françaises ayant néanmoins manifesté leur intérêt pour cette technologie en lançant des projets pilotes, le récent plan de relance du gouvernement à la suite de la crise sanitaire consacrera plus de 7 milliards d’euros sur 10 ans à cette énergie d’avenir, afin de construire des usines capables de produire notamment les électrolyseurs (permettant de transformer l’électricité en hydrogène par l’électrolyse de l’eau). Le Plan hydrogène prévoit par ailleurs un financement de 1,5 milliard d’euros pour développer une filière industrielle de l’hydrogène à l’image de ce qui a été réalisé pour les batteries électriques – cela en coopération avec l’Allemagne.

 

Figure 14 : De nouveaux types de mobilités faible ou zéro émission30 31

 

CONCLUSION

L’enjeu principal d’évolution du secteur des batteries électriques est de démultiplier significativement l’offre, afin de suivre l’augmentation considérable de la demande. Ce chantier se traduit actuellement par la mise en place d’une filière européenne durable et compétitive de production et de recyclage des batteries.

En parallèle, les technologies de batteries s’améliorent, ces dernières gagnant en autonomie et en capacité spécifique. Les méthodes de recyclage font également l’objet d’innovations techniques cruciales qui devraient mener, par ailleurs, à une diminution importante du coût de revient d’ici 2030.

Cependant, les contraintes restent importantes pour les acteurs de la mobilité électrique : l’importance de l’investissement en capital, la maîtrise des performances des batteries et la complexité des décisions à prendre lorsque leur efficacité commence à décroître sont autant de paramètres qui ont favorisé l’émergence de nouveaux modèles économiques d’utilisation de batteries, tels que le modèle BaaS, mais aussi d’autres modes de mobilité propres qu’il convient de suivre de près, tels que les bus à hydrogène.

Ces évolutions, de modèles économique et de technologie, devraient conduire les acteurs historiques et les nouveaux entrants du secteur des transports zéro émission à redéployer leur stratégie et politique d’investissement. Dans cette phase de mutations importantes pour l’ensemble du secteur, Accuracy a développé un cadre d’accompagnement stratégique, afin que ces acteurs identifient et saisissent les opportunités réellement durables et rentables de la chaîne de valeur.

 


1 De moins en moins de bus électriques dans la future flotte de la RATP, Ville Rail & Transports, Marie-Hélène Poingt, 04.03.2020
2 https://www.energytrend.cn/news/20191014-76629.html, Institut de recherche de point de départ (SPIR)
3 Lithium-ion Battery Costs and Market, Bloomberg New Energy Finance, 05.07.2017
4 Developing a promising sector for Quebec’s economy, Propulsion Québec, avril 2019
5 Roadmap Battery Production Equipment 2030, VDMA, 2018
6 http://escn.com.cn/news/show-711124.html, China Energy Storage Network
7 Comment la filière des batteries pour véhicules électriques tente de se structurer en Europe, L’Usine Nouvelle, 06.09.2019
8 CATL starts building battery plant in Germany, electrive.com, 19.10.2019
9 LG Chem battery gigafactory in Poland to be powered by EBRD, European Bank, 07.11.2019
10 https://northvolt.com/production
11 https://www.envision-aesc.com/en/network.html
12 Samsung SDI expands its battery plant in Hungary, INSIDEEVs, 24.02.2020
13 Avec Verkor, la France compte un autre projet de giga-usine de batteries, Les échos, Lionel Steinman, 30.07.2020
14 La batterie Lithium-Ion, mieux comprendre pour mieux s’en servir, Amperes.be, 10.05.2017
15 La batterie à électrolyte solide : une révolution pour l’automobile, Les numériques, Erick Fontaine, 23.11.2017
16 Study on the Characteristics of a High Capacity Nickel Manganese Cobalt Oxide (NMC) Lithium-Ion Battery—An Experimental Investigation, www.mdpi.com/journal/energies, 29.08.2018
17 Oxygen Release and Its Effect on the Cycling Stability of LiNixMnyCozO2 (NMC) Cathode Materials for Li-Ion Batteries, Journal of The Electrochemical Society, 02.05.2017
18 A Mini-Review on Metal Recycling from Spent Lithium Ion Batteries, www.elsevier.com/ locate/eng
19 The recycling of Lithium-ion batteries, Ifri, 2020
20 Hydrometallurgical recycling treatment, GreenLion
21 Airbus des batteries : l’Europe finance à hauteur de 3,2 milliards d’euros, automobile-propre.com, 09.12.2019
22 Batteries européennes : Bruxelles donne son feu verts « de principe » à Paris et Berlin, Les Echos, 02.05.2019
23 The rechargeable battery market and main trends 2016 – 2025, Avicienne Energy, septembre 2017
24 Clés de progrès technico-économiques des batteries lithium-ion pour la traction automobile, Gaëtan Patry, 16.12.2014
25 Temperature effect and thermal impact in lithium-ion batteries: A review, Progress in Natural Science: Materials International, 2018
26 Effects of market dynamics on the time-evolving price of second-life electric vehicle batteries, Journal of Energy Storage, 12.07.2018
27 https://www.energy-pool.eu/fr/resultats-des-dernieres-encheres-sur-le-mecanisme-de-capacite/?_sm_ au_=iVV21ZSBZFJ26SkPsMKpkK3cc1412
28 Analyse coûts bénéfices des véhicules électriques – Les autobus et autocars, Service de l’économie, de l’évaluation et l’intégration du développement durable, octobre 2018
29 https://energies.airliquide.com/fr/transport-propre-transport-passagers/lenergie-hydrogene-vehicules
30 Electric vs. Diesel vs. Natural Gas: Which Bus is Best for the Climate? , Union of concerned scientists, 19.07.2018
31 Les bus à hydrogène, AFHYPAC, avril 2020

La BFI européenne devrait connaître un rebond en 2020

La BFI devrait connaître en Europe les premières hausses de ROE depuis six ans. Mais celles-ci ne permettront sans doute pas de combler le fossé qui s’est creusé entre les performances des BFI européennes et américaines.

Depuis dix ans, les revenus des banques de financement et d’investissement mondiales étaient en baisse régulière, diminuant de plus de 30 milliards sur un total de plus 180 milliards de dollars1. Parmi les trois métiers de la banque de financement et d’investissement, les activités de marché et notamment de fixed income, qui représentaient près de 60 % des revenus il y a dix ans, ont été les plus impactées, perdant depuis 2012 plus d’un tiers de PNB.

Dans ce contexte, l’année 2020, pourtant marquée par la crise sanitaire, devrait symboliser le rebond de la banque de financement et d’investissement, avec les premières hausses de ROE depuis six ans. Cette embellie profite aux trois métiers. La banque d’investissement et la banque d’affaires devraient voir leurs revenus progresser de 20 % à 30 %. Le métier le plus en progression cette année serait le fixed income, avec des revenus historiques, en hausse de 50 %. Sur ce métier, les banques profitent d’une hausse de la demande, les entreprises cherchant à se couvrir en taux et en change durant le confinement et à sécuriser leurs financements.

En France, la situation reste néanmoins contrastée et deux tendances se dessinent sur les revenus. D’un côté, BNP Paribas connaît une progression soutenue de ses revenus en corporate banking et global markets, avec des performances records notamment dans ses points forts historiques (fixed income, change et matières premières). Crédit Agricole voit également ses revenus augmenter sur un an, portés par la hausse des besoins en couverture et des émissions obligataires. D’un autre côté, BPCE et Société Générale voient leurs revenus baisser sur un an, à cause en partie des dérivés actions, impactés par la suspension des dividendes.

 

L’écart avec les banques américaines

Les bonnes performances de BNP Paribas, Crédit Agricole et d’autres banques de financement et d’investissement (BFI) européennes pourraient amener certains observateurs à s’interroger sur leur capacité à réduire l’écart avec les banques américaines. Le fossé qui s’est creusé depuis dix ans entre BFI européennes et américaines, traduit par un décalage dans les revenus et dans l’efficience opérationnelle, semble néanmoins difficile à combler. En effet, les banques américaines ont capté ces deux dernières années deux tiers des revenus mondiaux de l’activité global market et 50 % des revenus de banque d’investissement. En Europe, seules les banques suisses (UBS et Crédit Suisse) et BNP Paribas parviennent à contester une partie du pool de revenus aux banques américaines, sur des activités ciblées (DCM et fixed income pour BNP Paribas, ECM et equity pour les banques suisses). Depuis 2012, la part du Produit net bancaire (PNB) de la banque de financement et d’investissement dans le PNB total des banques européennes stagne autour de 30 % quand celui des banques américaines a évolué de 39 % en 2012 à 44 % en 2019, le PNB de la banque de détail américaine restant pourtant stable sur cette période. S’agissant des charges, les BFI européennes accusent le coup, comme l’atteste l’écart de coefficient d’exploitation de +15 points avec les banques américaines2. Pire, les coefficients d’exploitation des banques américaines sont homogènes, lorsque l’on note une forte dispersion chez les banques européennes. Le rapport entre revenus et fonds propres alloués est également défavorable aux BFI européennes, symbolisant la capacité des banques américaines à optimiser leurs emplois pondérés.

 

Un marché européen fragmenté

Les origines du retard des BFI européennes sont structurelles et ne peuvent donc être rapidement gommées. Quatre raisons expliquent l’hégémonie des BFI américaines face à leurs concurrentes européennes.

Tout d’abord, le marché bancaire européen apparaît fragmenté face à un marché bancaire américain unifié, ce qui contribue à expliquer près de la moitié de l’écart de performance entre les banques américaines et européennes. Les banques américaines bénéficient en premier lieu d’une forte concentration des plus grandes capitalisations boursières mondiales sur leur territoire. A fin 2019, environ 3 000 des 10 000 premières capitalisations boursières mondiales, représentant 35 000 milliards d’euros, avaient installé leur siège en Amérique du Nord. Les BFI américaines profitent donc d’un vaste marché unifié quand les banques européennes composent avec un marché morcelé et subissent les variations de législations entre pays. Sur leur marché domestique, la domination des banques américaines reste donc incontestée. Sur le vieux continent, les BFI européennes reculent au contraire face à leurs concurrentes américaines, perdant près de 10 points de parts de marché au bénéfice de leurs homologues américaines depuis 2010. Les BFI européennes pâtissent de leur trop petite taille ainsi que du nombre d’acteurs réduit capables de capter des parts de marché importantes.

 

Un modèle opérationnel plus efficient

Ensuite, le modèle opérationnel américain semble plus efficient. En premier lieu, les banques de financement et d’investissement américaines tirent une part plus importante de leurs revenus de leur activité liée aux marchés financiers. L’activité global markets représente en effet deux tiers des revenus de JP Morgan et Morgan Stanley en 2019, contre à peine la moitié pour BNP Paribas ou Natixis et un tiers pour Deutsche Bank. Ces activités de marché sont traditionnellement plus rentables que les activités de financement pour un même niveau de capital investi. De plus, les banques américaines se sont rapidement restructurées post-crise, en passant notamment de larges pertes pour apurer leur bilan et renforcer leur solidité financière. À ce titre, le ratio CET1 moyen des banques américaines a dépassé entre 2015 et 2016 celui des banques européennes, leur permettant d’investir notamment dans le recrutement d’experts en provenance des BFI européennes. Ces dernières ont sans doute également perdu du temps dans leur réflexion continue autour de restructurations tant de leurs activités que dans leurs effectifs. Enfin, les banques américaines cultivent leur modèle d’origination et de distribution des prêts (originate to distribute) quand les banques européennes conservent les créances à leur bilan (originate and hold). Le modèle originate to distribute permet à la fois l’allègement du bilan des banques (deleveraging) et un transfert du risque aux investisseurs ayant un effet favorable sur les niveaux d’exigences réglementaires de capital et de liquidité. Les banques européennes, et notamment françaises, ont à ce titre entamé leur mue depuis 2012 avec pour objectif de transférer une part plus significative de leurs créances aux investisseurs.

 

Les effets de la réglementation

L’asymétrie entre réglementations européenne et américaine reste encore en vigueur. La réglementation bancaire américaine s’appuie depuis fin 2019 sur un principe de progressivité où les règles applicables aux huit banques d’importance systémique3 sont renforcées par rapport à celles applicables aux banques de taille moins significative (comme les banques régionales par exemple). Les établissements systémiques américains, dits de catégorie 1, sont tenus en matière de capital de détenir plusieurs coussins (coussins G-SIB, contracyclique et de conservation) et d’appliquer le ratio de levier4 et le ratio TLAC. S’agissant de la liquidité, les banques systémiques américaines respectent quotidiennement le ratio de liquidité court terme (LCR). Le Collins Amendment prévoit en outre que l’exigence de fonds propres des banques américaines calculée à partir de leurs modèles avancés représente a minima 100 % de l’exigence de fonds propres calculée selon l’approche standard, l’assiette n’incluant pas le risque opérationnel5. Ces éléments semblent mettre en exergue que la réglementation applicable aux banques systémiques américaines n’est pas moins conservatrice que celle applicable aux banques sous supervision de la BCE.

Deux arguments peuvent néanmoins venir alimenter l’idée d’une asymétrie réglementaire. En premier lieu, les banques européennes incluses dans le mouvement de supervision unique sont tenues de détenir du capital au titre du processus de supervision mené par la BCE (exigence dite de P2R) et du résultat des stress tests réglementaires (exigence dite de P2G). Ces exigences additionnelles propres aux banques sous supervision BCE peuvent mettre à mal la compétitivité des banques européennes face aux banques américaines. D’autre part, la finalisation de Bâle III pourrait être plus défavorable aux banques européennes. L’étude d’impact de l’Autorité bancaire européenne de décembre 2019 a souligné que la finalisation des règles de Bâle III a un impact plus important pour les banques systémiques que pour les petites et moyennes institutions de l’UE (+24,1 % pour les banques systémiques contre 11,3 % et 5,3 % pour respectivement les moyennes et petites banques). L’élément le plus important est la mise en place de l’output floor qui limite le gain de RWA lié à l’utilisation des modèles internes. L’impact de la finalisation de Bâle III serait néanmoins moins pénalisant pour les banques américaines qui ont moins recours aux modèles internes et qui appliquent déjà, dans une version américaine, un floor sur le niveau des emplois pondérés. L’asymétrie réglementaire participe à expliquer près du tiers de l’écart de performance entre banques européennes et américaines.

 

La divergence de politique monétaire entre la FED et la BCE

Enfin, la politique monétaire et la croissance américaines ont été plus favorables qu’en Europe. Profitant d’un environnement de taux plus accommodant, les banques américaines affichaient au premier trimestre 2019 une marge nette moyenne de près de 3,4 %. Selon l’Autorité bancaire européenne, elle ne s’élevait qu’à 1,4 % environ pour leurs homologues européennes. La divergence de politique monétaire entre la FED et la BCE depuis quatre ans contribue à expliquer ce différentiel de marges entre les marchés européens et américains, la FED décidant de remonter son taux directeur à partir de 2015 lorsque la BCE le maintenait proche de zéro. En outre, les BFI américaines ont pu profiter d’une croissance positive de +1,5 % à +2,5 % par an aux États-Unis depuis 2009, qui excède de loin celle de la zone euro affectée par les crises financières et de la dette souveraine.

 

Reprendre du terrain aux banques américaines

Si les causes du retard des banques européennes sont multiples, certains leviers semblent devoir être activés par toutes pour reprendre du terrain aux banques américaines : renforcer la part d’activités génératrices de revenus et moins consommatrices de capital comme le M&A ou les marchés d’émissions de titres, initier des programmes d’optimisation de coûts via par exemple le nearshoring et l’offshoring et créer de pôles d’expertises autour de certains métiers (informatique, relation client). Les mois qui viennent, entre fin de crise et début de consolidation européenne, risquent d’être décisifs pour les BFI européennes.

 


Notes :
1 Source : Coalition.
2 75 % pour les banques européennes contre 60 % pour les banques américaines.
3 Bank of America, Bank of New York Mellon, Citigroup, Goldman Sachs, JP Morgan, Morgan Stanley, State Street, Wells Fargo.
4 Renforcé à 5 % sur base consolidée, contre 3% dans la réglementation bâloise.
5 Une étude de la Direction des études économiques du groupe BNP Paribas a démontré que cela équivaut à 75% des emplois pondérés incluant les risques opérationnels et de CVA.
Source de l’article :
Revue Banque N°848 – Ocrobre 2020

La perspective nord-américaine d’Accuracy sur l’évaluation d’entreprise privée dans le contexte de la Covid-19.

La crise liée à la COVID est le plus grand choc économique que le monde ait connu depuis la Seconde Guerre mondiale. En raison de la crise sanitaire, des milliards de personnes ont été confinées chez elles, entraînant un arrêt brutal de l’économie. Par conséquent, le commerce mondial s’est arrêté, des centaines de millions de personnes ont perdu leur emploi et le niveau d’endettement a fortement augmenté. Alors que l’économie reprend, nous constatons que les effets de la crise impacteront celle-ci à moyen et à long terme.

Accuracy’s north american perspective on Private Company Valuation in the context of COVID-19

The COVID crisis is the largest global economic shock since the Second World War. As a result of the sanitary crisis, billions of people were confined to their homes leading to a sudden halt of the economy. Consequently, global trade came to a standstill, hundreds of millions lost their jobs and indebtedness has greatly increased. As economies begin to restart, it is becoming clear that the impacts of the crisis are not merely transitory.

Le lien entre les modèles climatiques et les valeurs des actifs des entreprises est complexe à établir

 

Deuxième auteur :
Franck Bancel (Academic Advisor)

 

Le professeur de sciences de gestion Franck Bancel et le consultant en gestion Henri Philippe expliquent, dans une tribune au « Monde » que les outils classiques de la stratégie d’entreprise ne sont plus opératoires face à l’incertitude du réchauffement.

 

Tribune. Sous la pression des opinions, des pouvoirs publics et de la communauté scientifique, la gestion des risques associés au changement climatique s’est progressivement imposée à l’agenda des entreprises. Ces risques peuvent être décomposés en plusieurs dimensions :

• le risque physique, qui concerne les dommages causés aux actifs (infrastructures, bâtiments, réseaux, etc.) ou aux personnes par l’émergence ou l’accroissement de phénomènes climatiques extrêmes ;

• le risque de transition, qui est lié au fait que les politiques climatiques susceptibles d’être mises en place par les pouvoirs publics vont affecter les modèles économiques des entreprises ;

• le risque de litiges associés au non-respect de la législation environnementale ou à des demandes de dommages et intérêts, comme cela a été le cas par exemple dans l’industrie du tabac ou de l’amiante.

Dans ce contexte, il serait légitime de penser que les valorisations des entreprises doivent intégrer les risques et les opportunités associés au changement climatique. Or, l’observation des pratiques ne permet pas de répondre clairement par l’affirmative. Si la communauté financière reconnaît l’importance du changement climatique, elle a du mal à en quantifier les impacts.

 

Difficile consensus sur les décisions des acteurs économiques

De manière générale, évaluer une entreprise en prenant en compte le risque climatique suppose en effet de résoudre une série de problèmes qui n’ont aujourd’hui pas encore de réponse.

Tout d’abord, les modèles d’évaluation reposent sur l’estimation de la trajectoire financière des entreprises dans le futur (appelé aussi « plan d’affaires »). Ces prévisions sont la plupart du temps limitées à quelques années, ce qui est trop court pour appréhender pleinement les risques associés au changement climatique. S’agissant du long terme, les financiers se reposent sur le concept de « valeur terminale » pour mesurer toute la valeur générée au-delà de l’horizon du plan d’affaires.

Malheureusement, cette valeur terminale est bien souvent appréhendée de façon rudimentaire. Elle n’est généralement qu’une extension des dernières années du plan d’affaires et elle repose bien souvent sur la perpétuation ad vitam aeternam d’une performance moyenne passée considérée comme acceptable pour le futur. Or, si le risque climatique est déjà une réalité, ses effets vont s’amplifier dans les années à venir. Et dans le cas du risque physique, les données passées ne permettent pas d’estimer correctement l’avenir, dans la mesure où les marges d’erreur sont considérables.

Ensuite, le risque de transition dépend des décisions politiques et des comportements des acteurs économiques. Par exemple, augmenter brutalement le prix du carbone renchérirait massivement les coûts de production d’un grand nombre d’entreprises. A court terme, l’impact serait très significatif pour de nombreux secteurs, comme l’énergie, le transport ou le bâtiment. En revanche, à plus long terme, les dommages sur les actifs physiques seraient probablement moindres (si les mesures prises sont efficaces).

Or, il n’existe pas, à ce jour, de consensus sur les décisions politiques nécessaires, ni d’ailleurs sur leur délai de mise en œuvre (même si on peut penser que les agendas politiques vont faire une place croissante aux enjeux climatiques – et à d’autres, comme celui de la biodiversité). Il en est de même pour les risques légaux. On ne sait pas comment et dans quels délais va évoluer la jurisprudence en matière environnementale et ce que seront les conséquences à court, moyen et long termes pour les entreprises.

 

Les effets du changement climatique ne sont pas linéaires

Enfin, les effets du changement climatique ne sont pas linéaires. Il existe des seuils de basculement à partir desquels les coûts deviennent exponentiels. Par exemple, à partir d’un certain niveau de réchauffement, la fonte des glaces entraîne une montée rapide des eaux. La nécessité de réaménager (ou d’évacuer) le littoral engendre des coûts extrêmement importants, qui sont d’ailleurs probablement hors de portée pour certains pays. L’impact du réchauffement climatique n’est pas non plus uniforme.

Certains pays et zones géographiques sont plus affectés que d’autres. La précision des modèles climatiques n’est pas nécessairement adaptée à celle dont les évaluateurs (investisseurs financiers, banquiers, ou entreprises elles-mêmes) ont besoin. Le lien entre les modèles climatiques et les valeurs des actifs des entreprises est donc complexe à établir.

Dans ce contexte, l’évaluateur d’entreprises est confronté au distinguo risque/incertitude décrit par l’économiste américain Frank Knight (1885-1972). Pour faire simple, le « risque » correspond à l’aléa mesurable, quantifiable, dont on peut estimer (raisonnablement) les probabilités d’occurrence, alors que l’« incertitude » comprend tout le reste, c’est-à-dire l’aléa qui échappe à toute mesure. Dans le cas du risque climatique, il n’est pas possible de déterminer les probabilités d’occurrence des scénarios futurs. Les outils de la finance classique reposant sur la notion de risque deviennent alors largement inopérants pour appréhender le long terme.

 

Le changement climatique, une réalité pour les entreprises

Cela étant, la situation évolue, et les aléas qui sont aujourd’hui considérés comme des incertitudes lointaines pourraient rapidement se traduire dans les valorisations. Les start-up spécialisées dans les questions environnementales ou, à l’autre extrémité, les entreprises fortement émettrices de CO2, ne peuvent déjà plus être évaluées sans analyser finement les conséquences du changement climatique sur leur modèle économique.

Par extension, toutes les industries doivent procéder à une revue stratégique de leur portefeuille d’activités et s’interroger sur les modalités d’érosion de leur rente économique à terme et sur la création de nouvelles options de croissance.

A l’évidence, le changement climatique est devenu une réalité incontournable pour les entreprises. Aujourd’hui, les outils de mesure et les informations existent pour traduire cette réalité dans leur valeur financière et vont progressivement être déployés.


Article du Monde.fr – 10/07/2020

Accuracy conseille KKR

Accuracy a conseillé KKR dans le cadre de l’acquisition de sa participation majoritaire dans Etche France.

Accuracy conseille Argosyn / Martinter

Accuracy a conseillé le groupe Argosyn / Martinter lors de la cession au Crédit Mutuel en mai 2020 de sa participation détenue dans Cofidis, à hauteur de 9,36%.

Accuracy conseille La Caisse de Dépôts et Consignations

Accuracy a conseillé La Caisse des Dépôts et Consignations dans le cadre du rachat global des participations détenues par l’Agence des Participations de l’Etat et La Banque Postale dans la Société de Financement Local (SFIL), ex-Dexia Crédit Local.

La banque de détail doit être fortement repensée en France

 

Les résultats 2020 des banques françaises confortent largement les tendances longues sur le métier de la banque de détail en France. A ce titre, il est intéressant d’analyser les chiffres sur cinq ans, pour évaluer l’impact des ruptures à l’oeuvre et comprendre comment ce métier a vu son poids relatif se réduire sensiblement dans le résultat des six plus grandes banques françaises, qu’il y soit très pondéreux (Mutualistes, Banque Postale) ou nettement moins (BNP Paribas, Société Générale).

La baisse des revenus, autour de 1 % par an toutes banques confondues, est le principal moteur de cette évolution. Au sein du produit net bancaire (PNB), c’est naturellement la marge d’intérêts qui recule, en partie à cause des taux bas, en partie du fait des pratiques commerciales.

Cette baisse de marge se traduit par une chute beaucoup plus élevée du résultat brut d’exploitation, avec, depuis 2014, un recul de 5 % par an sur le métier. Le coût du risque baissant fortement, la baisse du résultat net est plus limitée.

Mais outre ce contexte macroéconomique, les banques de détail françaises souffrent des spécificités et pratiques du marché français.

Commençons par le crédit immobilier, le produit « harpon » de la relation-client, qui, depuis toujours, affiche des marges particulièrement ténues en France. Cette pratique s’est avérée très pénalisante lors des vagues de remboursements anticipés de 2015 à 2018. Celles-ci ont coûté plusieurs milliards de PNB au système, pour des gains de parts de marché individuels quasi inexistants.

Pour compenser, les banques ont toutes cherché à développer les encours : ceux à l’habitat ont ainsi augmenté de 28 % depuis 2014, passant de 833 à 1.071 milliards d’euros. La question de la rentabilité de ce choix se pose d’autant plus que, malgré des réseaux d’agences parmi les plus denses en Europe, nos banques utilisent beaucoup les courtiers pour le crédit immobilier (40 % des volumes).

L’autre grand pourvoyeur de crédits, le crédit à la consommation, génère structurellement, des marges plus élevées. L’encours est environ cinq fois inférieur à celui du crédit immobilier (188 milliards d’euros en septembre 2019), et le marché est dominé par les entités spécialisées de BNP Paribas, du Crédit Agricole et du Crédit Mutuel (80 % de parts de marché à eux trois).

Ce produit connaît des taux de croissance de 3 % par an depuis 2014, et il constitue donc un enjeu majeur des plans stratégiques de l’ensemble des banques. Il fait l’objet d’innovations produits régulières, comme le paiement fractionné récemment. La compétition devrait s’accroître dans ce métier dans les années à venir.

Côté épargne, les deux produits réglementés, Livret A et PEL, spécificités du marché français, représentent plus de 540 milliards d’épargne à fin septembre 2019, et les taux qu’ils affichent constituent un handicap dans le contexte actuel.

L’épargne logement représente une autre difficulté pour les banques de détail avec son taux encore plus élevé. Il est passé de 2,5 % à 1 % depuis 2014, mais cela n’a pas empêché les encours de grimper de 60 milliards d’euros dans le même temps, grevant ainsi le PNB des banques qui le collectent, avec un taux moyen de 2,65 %. Là encore, les banques n’ont pas toutes la même politique.

Ainsi, si les six principales banques françaises souffrent à des degrés divers sur le front de la banque de détail, elles n’ont pas toutes les mêmes stratégies. Là où les banques les mieux implantées peuvent faire le choix de l’équipement et des volumes, les banques aux réseaux moins pondéreux se doivent d’être plus diversifiées et plus attentives aux rentabilités de chaque activité.

Les symptômes sont divers, mais, pour redresser la rentabilité, les remèdes sont probablement communs : continuer à mieux segmenter et personnaliser les offres, investir pour ne jamais se laisser distancer par les néobanques en matière d’expérience client. Et peut-être fonctionner enfin différemment sur le front du crédit immobilier. Ce qui semble s’engager en ce début d’année.


Article des Echos – 25 Février 2020

Accompagnement des start-ups Episode 2 – Les structures d’accompagnement en quête d’un nouveau rôle et de nouveaux modèles

ACCOMPAGNEMENT DES START-UPS

Retrouvez l’épisode 1 :
Comment les structures d’accompagnement permettent de créer de la valeur en France ?

Retrouvez l’épisode 3 :
Comment l’écosystème d’innovation marocain se construit-il ?

 

EN SYNTHESE

Si l’innovation est un sujet stratégique à la fois à l’échelle « macro » des économies nationales et « micro » pour les entreprises concernées, le financement de cette innovation l’est tout autant. Et il s’appuie largement sur les structures d’accompagnement des start-ups.

Alors qu’en France, les premières structures d’accompagnement avaient pour fonction d’offrir un débouché à la recherche publique, l’essor des structures privées s’est accompagné d’une prise en compte croissante de l’impératif de rentabilité. Ainsi, alors même que le nombre de structures d’accompagnement ne cesse de croître, il n’est plus rare d’en voir certaines placées en liquidation judiciaire (Ekito, 33 Entrepreneurs) ou contraintes de pivoter (Numa, Usine IO).

Un modèle économique viable étant difficilement atteignable par les seules prestations de services à destination des start-ups, les levées de fonds sont devenues une source de revenus à part entière pour les structures d’accompagnement, dans un contexte de concurrence accrue entre ces structures. D’ailleurs, la capacité à accompagner des levées de fonds – mesurée par le nombre de levées réalisées, mais aussi les montants collectés – est devenue un signe de performance, parfois de manière réductrice.

Au même moment, le fonctionnement même des levées tend à être remis en question par l’essor de nouveaux usages tels que le financement participatif ou encore le recours à la blockchain et, plus généralement, par des évolutions sociétales importantes. Il est important de prendre la mesure du potentiel et des limites des nouveaux outils et modes de financement, mais aussi des perspectives qu’ils ouvrent pour les acteurs du financement, au premier rang desquels les structures d’accompagnement.

A. Les structures d’accompagnement jouent un rôle important dans le financement de l’innovation en France.

B. Il existe différents modèles de structures, qui proposent chacun une approche différente dans l’accompagnement des levées.

C. Bien qu’en hausse continue, les levées de fonds conventionnelles présentent un certain nombre de limites importantes pour les porteurs de projet.

D. A l’échelle mondiale, le phénomène des Initial Coin Offerings (ICO) a représenté une tentative de réinventer la levée de fonds, remettant notamment en cause le rôle des acteurs traditionnels tels que les fonds d’investissement et les structures d’accompagnement.

E. Capitalisant sur les limites des ICO, de nouvelles pratiques sont déjà en train d’émerger et constituent des opportunités pour les acteurs de l’innovation en France.

 

1. FINANCEMENT DE L’INNOVATION EN FRANCE : LE RÔLE DES STRUCTURES D’ACCOMPAGNEMENT

A. La forte croissance des activités de capital-risque ces dernières années a considérablement renforcé le rôle des structures d’accompagnement

L’activité de capital-risque, c’est-à-dire le financement d’entreprises à risque mais à fort potentiel, a connu une croissance extrêmement soutenue en France depuis 2015 (près de 30% par an en moyenne pour les levées de fonds de la période 2015-2019). En 2019, c’est ainsi plus de 5 milliards d’euros qui ont été investis dans ce type d’opérations.

Ce phénomène est à mettre en regard de la multiplication du nombre de startups depuis une décennie, qui a entraîné avec elle le développement du marché des structures accompagnatrices. Ces dernières aussi ont vu leur nombre exploser, et plus de 700 communes en France en hébergent désormais au moins une.

Les structures d’accompagnement sont les premiers acteurs à assister les entrepreneurs dans leurs levées. Ainsi, 74%1 du total des montants investis en capital-risque en France vient financer des start-ups incubées. De fait, l’incubation d’une start-up par une structure maximise ses chances de réussir sa levée. Tout d’abord parce qu’elle constitue un signal à destination des investisseurs potentiels, mais aussi parce que l’accompagnement facilite la mise en relation avec des investisseurs ainsi que l’accès aux savoir-faire nécessaires à la conduite de ce type d’opérations.

 

Evolution des levées de fonds réalisées par les start-ups en France [Md€]

Sources : Baromètre EY 2019 du capital risque, analyses Accuracy

 

B. Un accompagnement déterminant en amont et tout au long du processus de levée

Au-delà de l’appartenance à un écosystème, source de valeur pour l’ensemble des parties prenantes, l’inscription d’un projet innovant dans une structure d’accompagnement apporte trois bénéfices majeurs : le soutien administratif et financier, l’accompagnement humain nécessaire à la structuration opérationnelle et stratégique de l’entreprise et, enfin, les moyens de mesurer la réponse du marché. Ce
dernier apport peut se traduire par une réflexion sur le modèle économique, la définition des segments clients, la réalisation de sondages ciblés ou encore le développement d’une approche centrée utilisateurs de type design thinking. Toutes ces actions permettent d’amorcer une traction commerciale et d’avancer vers un proof of concept, décisif pour réussir la première levée et ouvrir l’accès à d’autres financements privés dans un second temps.

Ainsi, les start-ups qui atteignent la levée sont en quelque sorte des privilégiées, et le rôle des structures d’accompagnement est déterminant bien en amont de cette étape. Le schéma ci-dessous, qui illustre les ressources disponibles pour les entreprises innovantes en fonction de leur maturité, montre clairement les enjeux autour de l’accompagnement amont. Il présente notamment « la Vallée de la mort », une étape délicate que de nombreuses start-ups ne parviennent malheureusement pas à dépasser.

Si des dispositifs de financement de l’innovation sont disponibles dans les phases de maturation technologique et économique, le bât blesse au moment de la preuve de concept et du lancement commercial. C’est le moment où généralement la start-up a besoin de ressources financières supplémentaires pour booster sa traction commerciale, mais également le moment où elle a précisément consommé tous ses fonds propres. Pas encore assez désirable pour des investisseurs privés en recherche de croissance commerciale (et qui attendent donc justement une preuve que les clients ont validé l’offre !), la start-up est alors en danger de mort.

Cet état de fait est encore plus prégnant dans les territoires non métropolitains, où les ressources financières privées sont moins accessibles alors même que le besoin est plus important du fait du manque de compétences techniques disponibles (concentration dans les grandes métropoles des profils clés du type développeurs) et d’un écosystème plus réduit (difficulté d’accès à des clients grands comptes, à des partenaires industriels, à des spécialistes du financement, etc.).

 

Description des étapes clés dans la création et le financement d’une start-up

 

Dès lors, le rôle des structures d’accompagnement avant la levée est primordial, particulièrement dans les territoires, pour réduire autant que possible la durée du passage dans cette « Vallée de la mort ». Plus précisément, il s’agit de retarder au maximum l’entrée dans cette phase, tout en en anticipant la sortie. A cette fin, l’accompagnement va suivre deux axes complémentaires et interdépendants (illustrés dans le schéma ci-dessus) :

L’accélération de la maturation technologique et commerciale : il s’agit d’orienter les start-ups et de leur donner les moyens techniques afin de concrétiser leur idée et la confronter au marché. L’amélioration technique et le développement économique du projet s’autoalimentent dans un process itératif centré sur le client. In fine, on arrivera au Minimum Viable Product et à une première preuve de concept commercial.

L’ingénierie administrative et financière destinée à maximiser les effets de levier : pour obtenir la
preuve de concept, il est nécessaire d’anticiper, mobiliser et optimiser les ressources financières qui vont répondre aux besoins techniques, humains et commerciaux. Or, les start-ups maîtrisent parfois insuffisamment la chaîne de financement de l’innovation, notamment les dispositifs proposés par des structures telles que Bpifrance ou par les régions, qui assument de plus en plus leur compétence économique. Au-delà de la connaissance de ces dispositifs, les structures d’accompagnement vont permettre aux start-ups de les mobiliser au bon moment et de bénéficier d’une expérience non négligeable d’ingénierie administrative.

Ces deux axes vont contribuer à sécuriser le parcours des start-ups et lesrendre désirables pour des investisseurs, tout en leur donnant du temps et donc davantage de pouvoir de négociation.

 

« La maîtrise du financement de l’innovation par notre incubateur est un élément clé de notre croissance actuelle. Elle nous a permis d’obtenir des éléments de preuve de la pertinence technique et commerciale de notre solution et, ainsi, de préparer plus sereinement notre récente levée de 1,5 million d’euros. »

Pierre Naccache
co-fondateur d’Asystom

 

C. Des approches différenciées suivant les structures d’accompagnement

Les structures offrent une très grande diversité de tailles et de modèles, avec des profils variés et donc des approches spécifiques.

Structures privées, structures publiques, structures universitaires

Trois grandes familles de structures sont identifiables, celles financées à majorité par des subventions publiques, universitaires ou non, et celles au sein desquelles les capitaux privés sont dominants. Les premières ont la possibilité de se concentrer sur une palette d’enjeux plus larges et d’accompagner un plus grand nombre de start-ups, tandis que l’équation économique des secondes leur impose un positionnement plus précis et sélectif, afin de générer des bénéfices. La nature publique ou privée des structures influe également sur la manière dont l’accompagnement est perçu par les investisseurs.

Nous avons analysé les 20 structures les plus performantes en fonction du montant moyen des levées et du nombre de levées accompagnées. Elles représentent 39% du total des levées de start-ups incubées réalisées en France, pour un montant cumulé d’environ 1 750 m€.

Il est intéressant de constater que les structures « publiques » (hors universitaires) représentent 35% de ces levées de fonds et que deux d’entre elles occupent les deux premières places (Agoranov et Bpifrance Le Hub, voir schéma ci-dessous). Un succès qui s’explique par le fait que leur présence sur une opération représente un signal très positif pour les investisseurs : leur engagement est un gage de stabilité, dans la mesure où elles ne privilégient pas forcément la rentabilité à court terme, mais prennent aussi en compte le développement économique, le renforcement d’écosystèmes locaux, ou l’appui à des secteurs stratégiques.

 

Structures ayant accompagné le plus de start-ups vers une levée de fonds

Source : Etude menée sur les levées de fonds référencées par Capital Finance sur la période 31 mars 2017 – 8 avril 2019

 

Top 3 des structures d’accompagnement performantes en matière de levées de fonds en France

 

A noter : 4 incubateurs de grandes écoles figurent dans le top 20 (Drahi -X Novation Center, ParisTech Entrepreneurs, Incubateur HEC et ESSEC Ventures). Cela s’explique par le fait que ces structures ont pour objectif de développer et d’appliquer des innovations scientifiques, mais aussi par leurs réseaux étendus d’anciens élèves, notamment parmi les principaux acteurs du financement (fonds d’investissement, banques, business angels, administration).

 

Structures de capital-risque, structures grand groupe

Pour les structures privées, deux grands types de business plan se démarquent : l’un basé sur l’intégration d’une activité de capital-risque, l’autre organisé autour de liens forts avec un grand groupe.
Dans le premier cas, les structures accompagnent de petites promotions de start-ups à haut potentiel, dans lesquelles elles ont également pris des participations. La conduite de levées ultérieures constitue donc un impératif de rentabilité pour ces acteurs.

Dans le second cas, les structures ont davantage un rôle de veille technologique destinée à alimenter le coeur de métier du groupe auquel elles sont adossées. A travers elles, ce dernier prend une participation souvent minoritaire visant à créer de nouvelles lignes de produits et services en synergie avec son coeur de métier, ou à maîtriser le risque d‘une éventuelle disruption.

 

Structures généralistes, structures spécialisées

44% des levées de fonds sont le fait de structures généralistes, les autres provenant de structures avec un positionnement sectoriel précis. Les secteurs des technologies de l’information et de la communication (21%), de la santé (8%) et de l’énergie (7%) sont particulièrement représentés. Pour ce qui est des montants moyens levés par secteur, les secteurs de l’alimentaire, de l’énergie, des télécoms et de la chimie rassemblent les montants les plus importants. A noter que la moyenne du secteur de la Foodtech est gonflée par la levée record de 72 millions d’euros réalisée par Wynd2, start-up accompagnée par l’accélérateur spécialisé Food ShakeUpFactory.

 

Nombre de levées de fonds par secteur d’incubation

Source : Etude menée sur les levées de fonds référencées par Capital Finance sur la période 31 mars 2017 – 8 avril 2019

 

Structures plus ou moins sélectives

La capacité à générer des levées de fonds n’est pas directement liée au nombre de start-ups accompagnées – alors que l’on aurait pu s’attendre à ce que plus une structure accompagne de start-ups, plus elle réalise de levées in fine.

Si l’on considère les 17 plus grosses structures en termes de levées de fonds réalisées, elles accompagnent en moyenne 64 start-ups (49 si on exclut Wilco qui en a assisté plus de 300). Or, les trois structures les plus « performantes » (Agoranov, BPIfrance le Hub et The Family) ont toutes des promotions de taille inférieure (respectivement 41, 55 et 17 start-ups accompagnées).

Ce constat reflète des degrés variables de sélectivité d’une structure à l’autre. En particulier, une structure de type fonds d’investissement comme The Family va choisir ses projets principalement sur la base de leur capacité future à lever des fonds. Des structures publiques comme Agoranov et la BPI ont des critères de sélection intégrant les perspectives de réalisation à court terme de levées de fonds mais aussi des objectifs plus larges, tels qu’offrir des débouchés commerciaux à des technologies développées dans les laboratoires de recherche publique.

 

Nombre de start-ups accompagnées et de levées de fonds réalisées par structure

Source : Etude menée sur les levées de fonds référencées par Capital Finance sur la période 31 mars 2017 – 8 avril 2019

 

D. Les limites des structures d’accompagnement

La croissance des montants investis dans les opérations de capital-risque et la multiplication des structures d’accompagnement dissimulent une situation assez inégale sur le territoire français, ainsi que plusieurs inefficiences auxquelles s’exposent les porteurs de projet.

Tout d’abord, les structures d’accompagnement se sont certes diffusées assez largement sur le territoire ces dernières années (en particulier via le label FrenchTech), mais les levées de fonds restent concentrées en Île-de-France. Les start-ups implantées dans cette région, en 2019, ont concentré 75% des montants collectés en France et 93 des 10 plus importantes levées de fonds. Cela s’explique par le fait que les fonds d’investissement et business angels sont majoritairement localisés à Paris.

De plus, aussi bienveillant que soit l’accompagnement, la levée de fonds peut être perçue comme un risque par des entrepreneurs désireux de conserver le contrôle de la gouvernance.

Enfin, la conduite d’opérations de levées de fonds demeure une épreuve pour les start-ups, qui doivent investir de nombreuses ressources humaines et financières dans des processus à l’issue incertaine, souvent répliqués pour chaque investisseur sans économie d’échelle possible et souvent limités à une cible nationale pour ne pas multiplier les rencontres physiques.

Dans ce contexte, des modes de financement alternatifs ont émergé peu à peu. Il s’agit de solutions de financement participatives (crowd-funding, crowd-lending, crowd-equity), mais aussi de mécanismes reposant sur la technologie des blockchains (Initial Coin Offering, Security Token Offering).

 

Levées de fonds par région en nombre et en valeur en 2019 en France

Source : Analyses Accuracy et Eldorado

 

2. LE PHENOMENE DES INITIAL COIN OFFERINGS (ICO), UNE MAUVAISE REPONSE A DE VRAIS PROBLEMES

A. Genèse des ICO

Les années 2017-2018 ont vu l’essor d’un nouveau mode de levée de fonds pour les start-ups : les Initial Coin Offerings (ICO), terme calqué sur celui d’IPO (« Initial Public Offering ») qui désigne une introduction en bourse. Une ICO est l’émission sur le marché primaire d’un actif (token) dont la propriété et les transactions sont enregistrées sur une blockchain4. Les ICO se sont rapidement imposées comme un moyen innovant de lever des fonds pour les entrepreneurs dans le domaine de la Tech.

Dans ce processus, les tokens représentent le droit d’utilisation futur d’un service, dont leur émission assure le financement. Il s’agit en quelque sorte de bons d’achats revendables sur le marché secondaire. Ainsi, les ICO peuvent s’apparenter à du crowdfunding, puisque l’émission vise à financer un service qui n’existe dans la plupart des cas qu’à l’état de projet au moment de la levée.

A l’issue de leur émission les tokens peuvent directement être échangés sur le marché secondaire. Leur valeur est déterminée par la demande pour le service nécessitant ou bénéficiant de leur utilisation. Les investisseurs misent ainsi sur une adoption croissante du service pour maximiser leurs retours sur investissement. En outre, il n’est pas rare pour les porteurs de projet de se réserver une portion des tokens émis afin de bénéficier eux-mêmes du succès rencontré par leur service.

 

Schéma explicatif du fonctionnement d’une ICO

 

B. Après avoir semblé supplanter les modes de financement traditionnels, les ICO sont en très net repli

Après la toute première ICO montée en juillet 2013 par le projet Omni, ces opérations se sont multipliées en parallèle d’une forte hausse de la capitalisation du marché des cryptomonnaies, qui constituent le véhicule d’investissement premier de ces opérations.

Entre septembre 2017 et novembre 2019, ce sont plus de 29 milliards de dollars qui ont été levés dans le monde par ce procédé, principalement sur la fin de l’année 2017 et la première moitié de l’année 2018 (entre septembre 2017 et décembre 2017, la capitalisation de ce marché a été multipliée par 4). A noter qu’en France, le nombre d’opérations au cours de la même période a été plus limité, avec seulement 48 ICO et 153,6 millions de dollars collectés5. Cependant, ce montant n’est pas représentatif, dans la mesure où de nombreux entrepreneurs ont choisi d’organiser leur ICO dans d’autres pays6.

Si le succès de ce mode de financement s’explique tout d’abord par un certain nombre de facteurs conjoncturels, tels que la forte hausse de la capitalisation des cryptomonnaies, d’autres facteurs structurels sont à mobiliser pour prendre la pleine mesure de ce phénomène.

Tout d’abord, la relative efficience de ces levées, c’est-à-dire le ratio entre les ressources (humaines et financières) mobilisées par un porteur de projet et les montants collectés. Pour une petite entreprise, une émission de tokens sur le marché primaire est en théorie moins coûteuse qu’une levée de fonds classique et permet néanmoins d’accéder à un nombre d’investisseurs plus important. Quant aux
plus grandes entreprises, une ICO est également bien moins coûteuse pour elles que l’émission de titres financiers réglementés.

 

Répartition des montants collectés selon les modes de levées en France et dans le monde en 2018 et 2019

 

Par ailleurs, ce mécanisme présente l’avantage de la sécurité, la blockchain étant par nature non piratable. Enfin, il offre une meilleure liquidité, puisque les titres peuvent facilement s’échanger, contrairement à l’investissement direct dans une start-up qui n’est pas du tout liquide.

La forte croissance des montants collectés par ICO a pu donner l’impression que ces dernières allaient s’imposer comme un mode de financement incontournable de l’innovation. Pourtant, depuis le second semestre 2018, les montants collectés, de même que le nombre d’ICO, sont en nette diminution : 2 Md$ par mois en moyenne entre septembre 2017 et août 2018, contre 0,36 Md$ (soit 5 fois moins) entre septembre 2018 et novembre 2019.

Un tel ralentissement s’explique notamment par la baisse de capitalisation du marché des cryptomonnaies. En effet, la perte de valeur de ces dernières a réduit les fonds à disposition des investisseurs et fragilisé les trésoreries des entreprises ayant conservé les montants levés sous forme de cryptomonnaies. L’exposition démesurée de certains projets aux variations de cours a provoqué de nombreuses faillites, ce qui a d’ailleurs souligné l’absence totale de protection pour les détenteurs de
tokens. La diminution du nombre d’ICO s’explique également par les nombreux schémas de fraude et d’escroquerie qui ont essaimé autour de ce type d’opérations, dont certaines ont été largement médiatisées.

Malgré ce bilan mitigé lié à un engouement passager pour les cryptomonnaies, les ICO ont été et demeurent l’expression d’une défiance envers les acteurs historiques de la levée (conseils, investisseurs traditionnels, mais aussi structures d’accompagnement), de besoins de financement non satisfaits et d’un désir prononcé d’innovation. C’est sur ces éléments que se construit désormais une nouvelle génération de modèles de financement.

 

Montants collectés par ICO / IEO et capitalisation du marché des cryptomonnaies

Source : CoinSchedule, ICO Bench, analyses Accuracy

 

3. VERS DE NOUVEAUX MODELES HYBRIDES ?

A. Initial Exchange Offering : un retour des tiers de confiance ?

Une Initial Exchange Offering (IEO) est une ICO réalisée directement sur une plateforme d’échange de cryptomonnaies (exchange). Dans ce procédé, l’exchange joue le rôle de tiers de confiance. En triant les projets et en réalisant les due diligences adéquates, il garantit aux investisseurs le sérieux du projet et, surtout, son potentiel. En effet, les exchanges7 disposent des compétences nécessaires à l’évaluation des projets et engagent leur réputation en acceptant de les coter – ce qui leur confère la liquidité tant recherchée par les investisseurs.

Cette pratique a pris de l’ampleur depuis la fin de l’année 2018 : alors que le nombre d’ICO est en baisse continue depuis mars 2018, le nombre d’IEO ne cesse de croître depuis janvier 2018.

Cette recentralisation paradoxale – au regard des ambitions décentralisatrices des blockchains – permet de remédier au déficit de confiance des investisseurs. En réhabilitant le principe des ICO, elle montre que ce procédé innovant peut demeurer pertinent pour certains projets et conserve des avantages non négligeables sur les levées de fonds traditionnelles, à condition de remédier aux asymétries d’informations entre porteurs de projets et investisseurs. Elle rappelle que seule une analyse poussée du modèle économique, du marché adressable et de la valeur ajoutée de la technologie blockchain est en mesure de garantir les chances raisonnables de succès d’un projet.

En ce sens, l’expérience des ICO plaide pour une implication croissante de tiers de confiance tels que les conseils, les structures d’accompagnement et, dans le cas des IEO, les exchanges.

 

Montants collectés par ICO, nombre d’ICO et capitalisation du marché des cryptomonnaies

 

ICO vs IEO : évolution de la répartition des montants collectés

Source : CoinSchedule, ICO Bench, analyses Accuracy

 

B. Security Token Offering : un modèle hybride

Les Security Token Offerings (STO) sont des émissions sur le marché primaire de titres financiers représentés par un token sur une blockchain. Loin d’être un simple bon d’achat comme dans le cadre des ICO ou des IEO, les tokens matérialisent ici des droits à des revenus futurs, fixes ou variables suivant leur paramétrage. Les titres financiers étant soumis à des règlementations strictes, les investisseurs disposent de recours potentiels contre des porteurs de projet malintentionnés.

La blockchain n’est ici que l’infrastructure technologique sur laquelle les mouvements de titres sont enregistrés, mais elle ouvre des perspectives plus larges, en termes de digitalisation des titres financiers et au-delà. La prise de participation à hauteur de 5 millions d’euros par l’opérateur boursier Euronext au capital de Tokeny Solutions8, une start-up luxembourgeoise spécialisée dans la « tokenisation9 » des actifs financiers, s’inscrit dans cette dynamique.

En effet, les propriétés des blockchains permettent d’envisager la titrisation à moindre coût de tous types d’actifs, qu’il s’agisse d’oeuvres d’arts, de titres financiers ou d’actifs immobiliers. La liquidité de ces titres sur le marché secondaire n’est pas encore garantie, du fait de l’absence de plateformes d’échanges disposant des licences nécessaires et de volumes suffisants, mais plusieurs dizaines de projets à travers le monde sont en développement dans ce sens.

 

Exemples de projets de STO en cours dans le monde

La blockchain représente également une opportunité de développer des titres financiers innovants, qui par exemple attribuent aux investisseurs un pourcentage, déterminé à l’avance, d’éléments tels que le résultat opérationnel ou le bénéfice avant impôt. Si ce type d’instruments était déjà envisageable
avant la blockchain, les possibilités d’automatisation offertes par le recours aux smart contracts10 modifient leur équation coût / bénéfice, ce qui permettrait d’intéresser plus largement certains investisseurs, en échange d’une implication moindre dans la gouvernance.

Bien qu’en perte de vitesse, le phénomène des ICO est riche en enseignements pour les structures d’accompagnement, qui l’avaient tout d’abord perçu comme une menace. Révélateur des complexités et des excès de la levée « conventionnelle », il est une opportunité, pour l’écosystème du financement de l’innovation, de se réinventer vers de nouvelles formes hybrides.

Et ce n’est pas le seul moteur. En effet, la digitalisation des activités s’accélère avec de plus en plus de services désormais dispensés à distance : accompagnement, évènementiel, conférences, levées de fonds, etc. Cette modification est révélatrice d’une révolution dans les manières de travailler, conduisant à davantage de structures sans lieu physique et de programmes d’accompagnement hors les murs.

Outre l’adaptation à ce mode de travail novateur, les structures d’accompagnement devront se plier aux nouvelles exigences de marché : améliorer leur capacité à intervenir en région en mobilisant des investisseurs pertinents en dehors des grandes métropoles, ou encore développer leur maîtrise de technologies pointues telles que la blockchain, qui permet de dématérialiser des opérations complexes sans mettre en péril la sécurisation des données.

Entre quête de rentabilité, redéfinition des besoins des porteurs de projet (mobilité, souplesse, transparence), innovation d’usage (financement participatif) et technologique (blockchain) et mutations de leur écosystème (dématérialisation, globalisation, décentralisation), les structures d’accompagnement sont sommées de se réinventer.

 


Notes
1 Etude Accuracy menée entre le 31 mars 2017 et le 8 avril 2019 sur 650 levées de fonds réalisées par 380 start-ups incubées
2 Wynd opère majoritairement mais pas exclusivement dans la foodtech
3 Analyses Accuracy
4 Une blockchain est une base de données distribuée ne pouvant être falsifiée et modifiable uniquement par incrémentation, pour plus
de détails voir le livre : Blockchain – vers de nouvelles chaînes de valeur, M. Della Chiesa, F. Hiault, C. Téqui (Eyrolles, 2019)
5 D’après analyses Accuracy des données CoinSchedule
6 Les Echos, « ICO : les start-up tricolores boudent la France », 06/06/2018
7 Les exchanges sont les plus gros acteurs de cet écosystème naissant ; de pas leur poids ils sont en mesure d’inspirer la confiance
des investisseurs
8 Les Echos Investir, « Euronext prend une participation de 23,5% dans la fintech Tokeny Solutions », 01/07/2019
9 La tokenisation décrit le fait de créer une token sur une blockchain matérialisant la propriété d’un élément externe à cette dernière –
par exemple des parts d’actifs financiers
10 Un smart contract est une transaction conditionnée et programmée sur une blockchain

Accuracy conseille AXA REIM

Accuracy a conseillé AXA REIM dans le cadre de l’acquisition de 75% du centre commercial Italie II auprès de Hammerson.

Accuracy conseille ADIA

Accuracy a conseillé ADIA dans le cadre de la cession d’un portefeuille de 7 actifs à Primonial.

Accuracy conseille ADIA

Accuracy a conseillé ADIA dans le cadre de la cession d’un portefeuille de 38 actifs immobiliers à Amundi Immobilier et le Crédit Agricole Centre Est.

Accompagnement des start-ups Episode 3 – Comment l’écosystème d’innovation marocain se construit-il ?

ACCOMPAGNEMENT DES START-UPS

Retrouvez l’épisode 1 :
Comment les structures d’accompagnement permettent de créer de la valeur en France ?

Retrouvez l’épisode 2 :
Les structures d’accompagnement en quête d’un nouveau rôle et de nouveaux modèles

 

EN SYNTHESE

A l’heure où l’innovation devient plus que jamais le moteur de toutes les économies, les start-ups sont placées en première ligne en raison de leur structure simple et agile qui leur permet de s’aventurer dans les secteurs les plus prometteurs.

Toutefois, le développement de l’innovation ne peut aboutir sans un écosystème complet et adapté, rassemblant un ensemble d’acteurs (organisations, entreprises, start-ups, universités, investisseurs), qui interagissent et s’associent pour l’émergence de projets innovants.

Cette étude décrit les dynamiques qui façonnent l’écosystème d’innovation marocain, entres stratégies nationales et initiatives privées. Notre cartographie des structures d’accompagnement permet notamment de prendre la mesure d’un enjeu stratégique, pour tout pays cherchant à profiter pleinement de son potentiel de talents et d’entrepreneurs.

En effet, l’innovation constitue un levier décisif pour la croissance et le développement économique d’un pays.

A. Les structures d’accompagnement des porteurs de projets innovants se sont multipliées au Maroc, fruits d’une volonté politique et d’initiatives privées.

B. Néanmoins leur présence sur le territoire marocain demeure inégale et polarisée autour de la région de Casablanca.

C. Les grandes entreprises marocaines contribuent progressivement à l’écosystème d’innovation et commencent à intégrer l’open innovation comme levier de création de valeur.

D. L’innovation d’origine marocaine, mesurée en termes de demandes de dépôts de brevets et de levées de fonds des start-ups, reste en dessous de son potentiel.

 

1. LES STRUCTURES D’ACCOMPAGNEMENT DE L’INNOVATION AU MAROC
QUEL EST LE PAYSAGE DE L’INNOVATION AU MAROC AUJOURD’HUI ?

A. Des structures de plus en plus nombreuses

Les structures d’accompagnement sont constituées de structures physiques et non physiques : (i) incubateurs et accélérateurs, (ii) espaces de coworking, (iii) programmes d’accompagnement et (iv) programmes de financement. D’après nos recherches, il existe 74 structures d’accompagnement actives et en projet.

Parmi ces structures, le Technopark a été pionnier et constitue un cas d’école. Créé en 2001, et fruit d’un partenariat public-privé, les Technoparks sont gérés par le MITC (Moroccan Information Technopark Company), dont les actionnaires fondateurs sont l’Etat marocain (35%), la Caisse de Dépôt et de Gestion (17,5%) et des banques marocaines (47,5%). Le MITC propose des espaces et accompagne les porteurs de projets en les faisant bénéficier de son écosystème privilégié. Le modèle a été dupliqué à Rabat en 2012, Tanger en 2015 et bientôt à Agadir (ouverture prévue en 2021). Le Technopark a accompagné plus de 1 100 entreprises en particulier dans les secteurs TIC 1, Green Tech et de l’industrie culturelle depuis sa création. S’il est communément répandu que les start-ups ont besoin d’un accompagnement financier et spécialisé, la nécessité de les intégrer au sein d’une communauté pour échanger entre elles est primordiale. En effet, la communauté représente une intelligence collective très riche et diverse qui permet aux start-ups de discuter dans le cadre d’espaces de co-working, d’échanger sur les bonnes pratiques et de se constituer un réseau pour se développer.

C’est dans ce sens que de nouvelles structures ont vu le jour au Maroc, proposant des services d’accompagnement, de formation et de mentoring. Ces structures d’accompagnement organisent différents évènements comme des hackathons, c’est-à-dire des événements où des équipes variées (composées de développeurs, mais aussi de chefs de projets) doivent répondre à une problématique stratégique en délivrant un PoC 2 (en général un logiciel ou une application) en un temps très réduit. En décembre 2019, Emerging Business Factory a ainsi organisé le premier « Hackathon de l’eau » à Marrakech ayant pour objectif de faire de l’utilisation de l’eau dans la région un mode de consommation durable et éco-responsable.

D’autres structures d’accompagnement ont mis en place des espaces de co-working pour tous ceux qui veulent se lancer dans l’entrepreneuriat et qui cherchent une communauté de partenaires. New Work Lab, espace dédié au développement des startups marocaines à travers l’organisation de rencontres, de formations et la mise à disposition d’un espace de co-working fondé en 2013 à Casablanca, en est un bon exemple.

 

Cartographie des structures d’accompagnement des start-ups

 

B. Une répartition géographique encore inégale

Si les structures d’accompagnement se concentrent majoritairement aux alentours de Casablanca, des dynamiques régionales, fruits d’une forte volonté politique, se dessinent, à travers :

• La duplication du Technopark dans les autres villes du Royaume ;

• Des projets d’aménagement du territoire, tels la cité de l’innovation de la région Souss-Massa, qui prévoit la mise à disposition de laboratoires R&D aux porteurs de projets ou encore le pôle urbain de Mazagan aménagé par l’OCP et l’Etat ;

• Des dispositifs d’accompagnement à envergure nationale, avec par exemple le Réseau Entreprendre Maroc et Injaz Al-Maghrib qui accompagnent les porteurs de projets ou encore le programme de financement Fonds Innov Invest. Toutefois, certaines grandes villes marocaines, telles Fès et Meknès, ont une offre d’accompagnement largement en dessous des besoins d’une population étudiante importante, tels les étudiants de l’Université Euro-Méditerranéenne de Fès (UEMF). Lors de la rentrée 2017, cette université rassemblait déjà plus de 1 300 étudiants et chercheurs 4 présentant un potentiel de talents et d’entrepreneurs à ne pas négliger.

 

C. Des structures essentiellement généralistes et soutenues par une grande diversité de sponsors

Si une écrasante majorité (75.7%) des structures d’accompagnement sont généralistes, trois spécialisations se démarquent :

• Les TIC, notamment grâce à l’essor des Fintechs collaborant avec des groupes (exemple : StartOn, Fintech Challenge) ;

• Les Green Tech, le Maroc s’étant fixé l’objectif de réduire sa dépendance énergétique et d’investir dans les énergies renouvelables (exemple : social Greentech Bidaya) ;

• L’économie sociale et solidaire, en s’appuyant par exemple sur le sport pour créer un lien entre l’emploi des jeunes et l’esprit entrepreunarial (exemple : TIBU Maroc).

Il est également intéressant de relever que les sponsors des structures d’accompagnement sont diversifiés : 57% des structures d’accompagnement sont soutenues par au moins deux organisations (accompagnement, soutien financier etc.). Par ailleurs, 32% de ces structures proviennent d’un partenariat public-privé. Les initiatives d’accompagnement des entrepreneurs s’inscrivent ainsi dans une démarche d’intelligence collective, de mutualisation des ressources entre acteurs complémentaires, en bref, d’open innovation.

 

2. UNE IMPLICATION CROISSANTE DE GRANDES ENTREPRISES
COMMENT LES GRANDES ENTREPRISES MAROCAINES SE SAISISSENT-ELLES DU SUJET DE L’INNOVATION ?

A. L’OCP : un poids lourd de l’économie nationale et un modèle global d’innovation

Les entreprises marocaines intègrent progressivement l’open innovation et la numérisation dans leurs organisations et sensibilisent leurs collaborateurs à la culture de l’innovation comme le démontre l’exemple du groupe OCP.

OCP est le leader mondial des phosphates et la première entreprise industrielle marocaine. Le Groupe met notamment en oeuvre un programme d’investissement ambitieux (2008-2027) : le Groupe a pour ambition de doubler ses capacités minières et de tripler ses capacités de transformation.

OCP a ainsi a amorcé plusieurs chantiers afin de dynamiser l’innovation au Maroc et au sein du groupe. En plus de structures d’accompagnement physique, de nombreux programmes ont été mis en place comme par exemple la SeedStars Startup Competition ou le programme d’accélération Impulse en partenariat avec Mass Challenge, comme détaillé ci-dessous.

 

Le milieu universitaire nous ouvre l’accès à d’innombrables centres de recherche
à travers le monde et à l’open innovation […] Quand nous sommes dans l’université,
un autre dialogue s’instaure, beaucoup plus productif

Mohamed Soual, chef économiste à OCP.

B. Une implication croissante des banques marocaines

Les banques marocaines ne sont pas en reste. Attijariwafa Bank et BMCE Bank of Africa ont été pionnières dès 2001 en finançant le Technopark Casablanca, et ont été très actives ces cinq dernières années dans la promotion de l’innovation.

Les initiatives des banques marocaines en faveur des entrepreneurs les ont naturellement conduits à structurer et internaliser la démarche d’innovation pour améliorer leurs processus et leurs offres, dans un contexte de numérisation accrue. Une gestion déléguée à un pure player de l’accompagnement est souvent essentielle afin de faciliter la coopération et maximiser la création de valeur entre les parties prenantes, qui peuvent avoir des cultures très différentes, notamment lorsqu’il s’agit de partenariats public-privé. Si l’écosystème autour des start- ups s’est renforcé avec le lancement de plusieurs dispositifs de soutien, d’accompagnement et de financement (comme détaillé ci-contre), le nombre d’entreprises technologiques innovantes, mesurées en termes de brevets d’invention et de levées de fonds, demeure en dessous du potentiel du Maroc, comme détaillé dans les pages suivantes.

 

Gestion des structures d’accompagnements créées par les entreprises marocaines appartenant au Moroccan All Shares Index (MASI)

 

3. L’INNOVATION ET SON FINANCEMENT AU MAROC
COMMENT A EVOLUE L’INNOVATION AU MAROC CES QUINZES DERNIERES ANNEES ?

A. Les stratégies d’industrialisation successives ont contribué à élever le niveau global d’innovation

Evaluer de manière exhaustive le caractère innovant d’un pays est un exercice qui contraint à prendre en compte l’environnement institutionnel, les infrastructures, la formation, la R&D, la structure du marché et la création. Le Global Innovation Index 2019 classe le Maroc au 74e rang mondial parmi 126 pays, sur la base de 80 variables allant de la facilité à obtenir un crédit à la protection des intérêts minoritaires dans une entreprise. Cet index distingue aussi les variables d’inputs qui définissent le potentiel d’innovation du pays des variables d’outputs qui mesurent l’innovation effective.

Nos analyses se concentrent sur les deux critères d’outputs nous ayant paru les plus tangibles : le dynamisme de la recherche à travers les demandes de dépôts de brevets (moteur de l’industrie) et les levées de fonds des startups technologiques et numériques, qui témoignent du potentiel de développement économique.

La mise en parallèle de l’évolution de ces variables avec les plans successifs d’industrialisation mis en place par le Ministère de l’Industrie, du Commerce, de l’Economie Verte et Numérique depuis le milieu des années 2000 fait apparaître une corrélation. Comme le montre la figure ci-après, grâce aux politiques industrielles, ainsi qu’à la stabilité dont bénéficie le Royaume et sa proximité avec l’Union Européenne, le Maroc s’est imposé comme une destination privilégiée pour les investisseurs étrangers.

Depuis 2005, trois grandes stratégies d’industrialisation se sont succédées avec un effet considérable sur l’évolution du nombre de demandes de dépôts de brevets. Néanmoins, ces effets semblent différenciés selon la nature des acteurs. En effet, les demandes déposées par des non-résidents ont triplé entre 2014 et 2018 tandis que celles réalisées par des résidents marocains ont presque été divisées par deux sur la même période.

Le dynamisme de la recherche nationale semble en perte de vitesse, et reste majoritairement le fait des universités (58% en 2018), lorsque les entreprises marocaines n’ont déposé que 9% des demandes de brevets d’invention.

Dans le même temps, la forte augmentation des demandes d’origine étrangère témoigne d’une attractivité renforcée et s’explique par deux facteurs. En premier lieu, la présence d’acteurs étrangers s’est intensifiée au Maroc et ce dans diverses filières comme l’automobile et l’aéronautique suite au Plan d’Accélération Industrielle. En second lieu, la mise en place d’un nouveau mode de dépôt des brevets par l’Office Européen des Brevets, grâce à un partenariat en 2015 avec le Ministère marocain de l’Industrie, du Commerce, de l’Économie Verte et Numérique, permet désormais aux demandeurs de dépôt de brevet au sein de l’Union Européenne de demander également une protection pour leur brevet dans le Royaume. Ainsi, les Etats-Unis (20%) et les pays européens, France et Allemagne (8% chacun) en tête, sont les plus représentés parmi les pays d’origine des demandeurs de brevets.

 

Demandes de dépôts de brevets d’invention au Maroc (2005 – 2018) et stratégies d’industrialisation

Note :
Nous avons pris le parti d’étudier l’évolution du nombre de dépôts de brevets en raison de la facilité d’accès à ces données, s’ils permettent d’avoir une vision des effets des politiques industrielles successives ils ne permettent pas de porter un jugement sur l’ensemble de leurs effets.

 

B. Mais les montants levés par les start-ups restent modestes par comparaison à d’autres pays de la région

Enfin, les levées de fonds constituent un autre indicateur du dynamisme du secteur de l’innovation. S’il est complexe d’établir un lien de causalité entre ces dernières et la pratique du dépôt de brevets, ces deux phénomènes constituent des indicateurs complémentaires du dynamisme de l’innovation dans les pays concernés.

Au-delà de l’innovation, la diffusion de la pratique des levées de fonds traduit notamment la participation croissante des acteurs privés, nationaux et internationaux, au financement de l’innovation. En ce sens, de faibles montants peuvent cacher la prédominance du financement de l’innovation par des capitaux publics ou son internalisation par les entreprises déjà existantes.

En termes de levées de fonds, le Maroc figure à la 12e place africaine en 2019 avec 7 millions USD levés par les start-ups technologiques et numériques (contre 3 millions USD en 2018, 15e place) 5. Nous avons rassemblé des données permettant de comparer les situations de l’Algérie, de la Tunisie, du Nigéria, du Kenya et de l’Egypte avec celle du Maroc. Nous avons mis les montants collectés en perspective des PIB respectifs de ces pays. Enfin, pour tous ces pays à l’exception de l’Algérie – pour lequel nous ne disposons pas de données suffisantes – nous avons étudié l’évolution des levées entre 2018 et 2019.

De manière générale, nous constatons une croissance des levées de fonds sur ces deux années. Ainsi, le Maroc, le Kenya, le Nigeria, l’Egypte et la Tunisie font tous face à une hausse significative des montants récoltés. Concernant les montants en eux-mêmes, le Kenya et le Nigeria se distinguent nettement des autres pays. Si dans le cas du Nigeria cela peut être notamment expliqué par la taille de l’économie du pays (368 milliards USD en 2018), le cas du Kenya est différent (87 milliards USD en 2018). A titre de comparaison les montants levés au Maroc paraissent faibles rapportés au PIB du pays (120 milliards de dollars en 2018). Au-delà de la différence de structure des économies considérées, ce résultat peut s’expliquer de différentes manières : moindre accès aux financements, conduite de ces dernières dans d’autres pays, existence de modes de financement alternatif, ou encore moindre diffusion de la pratique des levées. Cette dernière explication semble d’autant plus pertinente qu’il existe une réelle différence entre l’Afrique francophone (Maroc, Algérie, Tunisie) et anglophone (Kenya, Nigeria, Egypte) comme le montre les chiffres de notre étude.

 

Evolution des levées de fonds entre 2018 et 2019

Source : Partech (levées de fonds) et la banque mondiale (PIB)

 

Si ces chiffres peuvent être utilisés à l’échelle macroéconomique pour mesurer des tendances telle que l’ouverture de certaines économies aux capitaux extérieurs, ils révèlent aussi l’état d’appropriation de certaines bonnes pratiques par les acteurs locaux. Dans ce contexte, les politiques publiques peuvent jouer le rôle de facilitateur dans une approche « top-down ». Néanmoins les réalités locales ne oivent pas être ignorées. En effet, au-delà des politiques publiques, ce sont les jeux d’acteurs et la qualité des interactions qui permettent la co-construction de programmes innovants et déterminent le dynamisme d’un secteur. L’exemple de l’OCP abordé dans la partie 2 est à e titre évocateur et souligne l’importance d’impliquer l’ensemble des acteurs dans la mise en place d’un écosystème d’innovation.

Ainsi, la diffusion des meilleures pratiques inspirées des pays étrangers pourrait renforcer les écosystèmes locaux. De telles mesures seraient de nature à permettre la réalisation du potentiel d’innovation de pays comme le Maroc, en favorisant l’essor des start-ups.


1 Technologies de l’information et de la communication
2 Proof of Concept
3 Rapport entre le nombre de structures d’accompagnement existantes dans la région et l’ensemble des structures existantes au Maroc
4 L’économiste.com, Edition n°5032, 2017, « Fès-UEMF : Une université à la fine pointe de la technologie »
5 Partech, 2019 Africa Tech Venture Capital report, page 13 (paru en Janvier 2020)
Note méthodologique : Partech, un fonds de capital-risque, publie annuellement le classement des levées de fonds en Afrique.
Les start-ups qui sont prises en compte remplissent les critères suivants : (i) Les start-ups sont Tech et / ou numériques, (ii) leur marché est l’Afrique (en opérations et en revenus) et (iii) la levée est supérieure à 200 000 USD

Accompagnement des start-ups Episode 1 – Comment les structures d’accompagnement de start-ups permettent de créer de la valeur ?

ACCOMPAGNEMENT DES START-UPS

Retrouvez l’épisode 2 :
Les structures d’accompagnement en quête d’un nouveau rôle et de nouveaux modèles

Retrouvez l’épisode 3 :
Comment l’écosystème d’innovation marocain se construit-il ?

 

EN SYNTHESE

Le rythme effréné de l’innovation, le risque de disruption, la volatilité des clients et la pénurie des talents sont autant de facteurs qui doivent pousser les grands groupes à innover non seulement rapidement, mais surtout efficacement. Cet impératif passe notamment par un rapprochement entre grandes entreprises et start-ups.

Néanmoins, il ne suffit pas de vouloir accompagner des start-ups pour que la collaboration fonctionne ! Si l’innovation constitue clairement une passerelle solide qui relie le monde des grands groupes et celui des jeunes entreprises, elle peut être fragilisée en raison d’objectifs stratégiques et modes de fonctionnement structurellement différents.

Notre cartographie des structures d’accompagnement en France permet de comprendre les principales tendances de l’écosystème d’innovation sur le territoire français, ainsi que les leviers de performance d’une démarche d’accompagnement de start-ups :

A. Les grands groupes français sont activement engagés dans l’accompagnement de start-ups. C’est le cas de 90% des entreprises du CAC 40, qui ont créé leur propre structure, participent à des dispositifs multi-entreprises, ou se sont associées à une structure existante.

B. Initialement centrée autour de la région parisienne, l’innovation française se développe très rapidement en région, les grandes métropoles abritant de plus en plus de structures d’accompagnement.

C. La tendance est à des structures spécialisées dans le ou les secteurs d’activité du donneur d’ordre : c’est un facteur de différenciation et de performance, et cela permet au grand groupe d’injecter plus facilement la valeur créée dans sa propre activité.

D. Cinq axes de réflexion permettent de définir le format d’accompagnement le plus adapté aux objectifs stratégiques du grand groupe : niveau de maturité des start-ups et, en matière de solutions offertes, hébergement, moyens techniques, moyens humains, moyens financiers.

E. Un tiers expert est indispensable pour mettre en œuvre la stratégie d’accompagnement, mais aussi sa gouvernance. Il s’agit en effet de fluidifier la coopération et maximiser la création de valeur entre des acteurs aux cultures extrêmement différentes !

 

INTRODUCTION

Mariage d’amour ou de raison, l’union des grands groupes avec de jeunes pousses est aujourd’hui incontournable pour sécuriser des leviers de croissance dans un monde en mutation constante.

Mais comment s’y retrouver parmi la multitude de formats d’accompagnement possibles ? De l’incubateur à l’accélérateur, en passant par les espaces de coworking, pépinières d’entreprises, fablabs et corporate venture capital, sur quels critères un groupe doit-il choisir la bonne structure d’accompagnement pour répondre à ses objectifs stratégiques ? Faut-il se spécialiser dans son propre domaine d’activité ou rester généraliste, prêt à capter la valeur, d’où qu’elle provienne ?

Accuracy a réalisé une cartographie des structures d’accompagnement françaises, afin de vous donner les clés nécessaires à une bonne compréhension des écosystèmes en place. Cette vision vous permettra de choisir avec discernement le tiers de confiance qui mettra son expertise à disposition pour vous accompagner dans une démarche qui soit réellement productive et rentable pour votre organisation.

 

1. L’INNOVATION FAIT SA REVOLUTION !

COMMENT EN TIRER PROFIT POUR CREER DE LA VALEUR ?

A. De l’absorption à l’accompagnement

Dans un environnement toujours plus incertain, l’innovation ne se cantonne plus aux investissements de R&D en interne, à la gestion de portefeuilles de brevets et à l’intégration de technologies issues de la sous-traitance. Elle est désormais intimement liée à la prise de risque, à travers l’investissement dans des projets audacieux : pour rester dans la course, il s’agit de miser sur un (plus ou moins jeune) entrepreneur disruptif.

La plupart des grandes entreprises ont d’abord adopté une stratégie d’absorption, parfois agressive et déstabilisante pour les entrepreneurs, et souvent inefficace du point de vue de l’innovation. Les échecs et l’apparition de nouveaux outils d’open innovation ont cependant impulsé de nouvelles pratiques. Aujourd’hui, 90% des grands groupes privilégient le rapprochement avec des structures d’accompagnement de start-ups, soit en créant la leur, soit à travers une gestion partagée ou déléguée.

 

Gestion des structures d’accompagnement dans lesquelles investissent les entreprises du CAC 40

Par exemple, le groupe Vinci a créé une structure en propre, baptisée « Léonard » qui permet entre autres de stimuler l’intrapreneuriat. Le lieu est à la fois incubateur de start-ups, espace de coworking et point de rencontre des acteurs de la transformation des villes et des territoires. Quant à Airbus, il a signé un partenariat avec l’incubateur Centrale Audencia ENSA Nantes. Outre les services offerts par l’incubateur lui-même, les collaborateurs ont accès à un espace dédié (showroom technique et espace de coworking) pouvant héberger leurs projets intrapreneuriaux.

D’autres entreprises ont préféré solliciter un tiers expert pour mettre en place l’accompagnement. Par exemple, AstraZeneca a sollicité un pure player, Interfaces, pour créer, puis gérer, son programme « Realize » qui vise à innover en matière de parcours patient, de data management et d’innovation scientifique dans le domaine de l’oncologie.

 

B. Un maillage territorial de plus en plus équilibré

Paris et le désert français ? Pas si sûr… Sans surprise, la capitale est le centre névralgique de l’innovation française : elle héberge 26% des structures existantes, dont les plus performantes et les plus médiatisées. Mais les autres régions de l’Hexagone ne sont pas en reste. Les grandes métropoles de régions se donnent les moyens de peser elles aussi dans la course à l’innovation.

L’écosystème français montre en effet un maillage de plus en plus complet des structures d’accompagnement. Plus de 700 communes en hébergent au moins une, et toutes les régions voient leur nombre de structures augmenter.

 

Répartition des structures d’accompagnement en France

Notre analyse chiffrée permet de dresser un état des lieux et de prévoir la dynamique à venir de chaque région. L’Ile-de-France affiche un écosystème d’accompagnement de l’innovation déjà relativement mature, tandis que les autres régions, même déjà bien développées comme celles autour de Bordeaux et Toulouse, continuent de montrer de fortes perspectives de croissance.

En somme, l’écosystème hexagonal de l’innovation se calque assez logiquement sur le dynamisme économique des différents territoires, et semble former une Sun Belt à la française, qui partirait de Rennes jusqu’à la région niçoise, en passant par Bordeaux, Toulouse et Montpellier.

 

C. Des écosystèmes d’innovation de plus en plus spécialisés par secteur

Dans cette régionalisation de l’innovation, certains territoires ont choisi de s’appuyer sur leur histoire économique pour créer des filières spécialisées d’un point de vue sectoriel. Généraliste ou spécialiste ? La plupart des grands groupes ont eux aussi eu cet arbitrage à faire. Pas de figure imposée, chacun a adopté la stratégie qui lui paraissait la plus pertinente en fonction de ses impératifs stratégiques et économiques.

Cependant, le fait est que la spécialisation gagne du terrain. Les plateformes thématiques occupent désormais une part importante des structures d’accompagnement en France. D’une part parce que la valeur ajoutée de l’accompagnement peut s’en trouver décuplée, et d’autre part parce que l’entreprise recherche généralement des retombées dans son domaine d’activité. Par ailleurs, la spécialisation est une manière de faire face à la concurrence induite par l’augmentation du nombre de structures d’accompagnement, ces dernières années.

L’évolution du secteur bancaire illustre parfaitement cette mutation. Depuis 2014, les « Village by CA » du Crédit Agricole ont essaimé un peu partout en France – en ligne avec la présence de ses caisses régionales, et indépendamment du secteur d’application – dans l’objectif de soutenir les entrepreneurs avec de l’accompagnement, un réseau de partenaires et du mentoring des collaborateurs de la banque afin qu’ils deviennent un jour des fournisseurs ou des clients. Toutes les autres grandes banques ont suivi cette démarche d’open innovation et décidé de créer leur structure d’accompagnement. Par exemple, « Plateforme 58 » par la Banque Postale, est active dans la banque et l’assurance ainsi que les technologies financières, mais aussi la santé, l’éducation et les services. Quant à BNP Paribas, avec son programme d’accélération « Bivwak! » (en plus de « WAI »), HSBC et son « Lab innovation » ou Société Générale avec « Swave », elles se concentrent sur des innovations applicables aux métiers de la banque, accompagnant fintechs et assurtechs.

Dans cette tendance à la spécialisation, certains secteurs semblent plus attractifs que d’autres. Le graphique ci-après montre les domaines qui sont sur-représentés dans l’écosystème d’innovation par rapport à leur taille de marché. Les secteurs Agritech, Fintech, Greentech, Biotech, comme les secteurs médias et artistiques, ont beaucoup investit dans l’innovation et devraient récolter le fruit de leurs efforts d’investissement d’ici quelques années par une augmentation de leurs chiffres d’affaires. D’autres ne sont pas à leur plein potentiel et devraient voir leur investissement augmenter comme les secteurs ConTech, PropTech, EdTech, Aéronautique & spatiale ou la mobilité et logistiques urbaines, et vont ainsi tirer l’innovation des prochaines années. D’où l’intérêt de se positionner dès maintenant pour sécuriser la création de valeur de demain !

 

Structures d’accompagnement spécialisées vs CA par secteurs d’activité INSEE

2. COMMENT CHOISIR SON FORMAT D’ACCOMPAGNEMENT DE START-UPS, ET MAXIMISER LE RETOUR SUR INVESTISSEMENT ?

A. Quel type de structure pour quels objectifs stratégiques ?

Si 90% des entreprises du CAC40 ont fait le choix d’investir dans au moins une structure d’accompagnement de start-ups, le format retenu n’est pas toujours adapté pour atteindre leurs objectifs stratégiques.

Il existe de nombreux types de structures d’accompagnement. Les services proposés sont variés et vont du simple hébergement, à la mise à disposition de machines-outils pour le prototypage, l’accès à du mentorat ou des programmes d’accélération sur-mesure, mais également l’organisation d’événements networking, ainsi que l’aide au financement. Comment déterminer le format le plus adapté au besoin et aux objectifs stratégiques d’un grand groupe ?

Bien évidemment, il faut commencer par clarifier ces objectifs, qui sous-tendent la logique d’investissement du donneur d’ordre. L’ambition est-elle d’obtenir un retour sur investissement rapide ? De participer à l’aménagement d’un territoire afin de le dynamiser ? De mener une veille technologique afin d’intégrer le plus rapidement possible la technologie développée par la start-up ? De répondre à des enjeux de ressources humaines à travers l’intrapreneuriat, le recrutement de nouveaux talents, la marque employeur ou la diffusion de nouveaux modes de travail ?

Ces objectifs vont permettre de définir le type de start-up visé (notamment en matière de maturité) ainsi que les besoins associés (hébergement, moyens techniques, moyens humains, moyens financiers). C’est donc la pondération relative de ces cinq éléments qui dessinera la structure d’accompagnement la plus pertinente, au regard à la fois des priorités stratégiques du grand groupe et des besoins réels de la start-up.

La cartographie ci-après présente en effet les différents écosystèmes d’accompagnement qui existent dans le paysage français, en fonction du poids relatif de chacun de ces cinq critères.

 

Cartographie des principales structures d’accompagnement

Par exemple, les incubateurs visant essentiellement des objectifs de communication, d’enjeux RH et de captation technologique, l’offre associée comprend surtout de l’hébergement et des moyens humains (coaching, mentorat, conseil…) et s’adresse plutôt à des jeunes pousses. Autre exemple, les fablabs ont moins l’ambition de s’orienter vers la communication et davantage vers le développement des talents, la captation technologique et l’aménagement du territoire, c’est pourquoi on y retrouve des projets plus matures (souvent en phase de prototypage), auxquels le donneur d’ordre fournit des moyens techniques importants.

 

B. L’épineuse question de la gouvernance : un tiers de confiance pour pérenniser les alliances

Une fois la structure identifiée et pensée, la différence – comme souvent – réside dans l’exécution.

Tout d’abord, pour attirer les startups les plus prometteuses, les groupes doivent s’assurer d’apporter une promesse différenciante. C’est ainsi que Unibail-Rodamco-Westfield leur offre la possibilité de tester leurs innovations et business models dans ses centres commerciaux, tandis que la communication très active autour du dispositif EDF Pulse offre une forte notoriété !

Ensuite, l’accompagnement de start-ups est un projet d’investissement comme un autre et, à ce titre, requiert un suivi rigoureux d’indicateurs préalablement définis. Ce pilotage de la performance, qu’il s’agisse de partenariats stratégiques, de prises de participations ou de programmes d’accompagnement, pose la délicate question du degré d’indépendance nécessaire à l’innovation. Comment mettre en place une gouvernance qui permette d’accompagner sans étouffer ? Adaptation des processus internes pour ne pas entraver le développement de la start-up par trop de rigidité, implication du top management pour renforcer la légitimité du programme en interne, communication régulière mais non intrusive… Autant de facteurs de succès dont la mise en œuvre peut nécessiter la présence d’un tiers de confiance.

Cet expert peut contribuer à construire sur-mesure le programme d’accompagnement, et à le superviser une fois mis en place, notamment dans le cas de structures multi-entreprises telles que « Plant 4.0 », qui rassemble Total, Vinci Energies, Solvay, Eiffage, Orano et Air Liquide.

 

Ce tiers de confiance doit comprendre les avantages et inconvénients de chaque type de structure afin de créer, sur-mesure, celle qui réponde effectivement à vos enjeux stratégiques d’innovation. Mais surtout, il doit être un véritable pont entre le grand groupe et la start-up accompagnée : en effet, ces acteurs ont chacun des objectifs stratégiques différents, qui convergent cependant sur le terrain de l’innovation. Accuracy intervient alors pour orchestrer, coordonner et optimiser leur coopération dans cet « espace commun ».

 


1 Rapport entre le nombre de structures d’accompagnement existantes dans la région et l’ensemble des structures existantes en France.
2 Rapport entre le nombre de projets d’ouvertures de structures d’accompagnement et les structures d’accompagnement déjà existante (au sein de la région).
3 Part du chiffre d’affaires INSEE par branche sur le chiffre d’affaires total 2016 français.
4 Nombre de structures d’accompagnement par spécialisation sur le total des structures d’accompagnement.

 

Sources :
– Base de données propriétaire Accuracy – décembre 2019
– Etude David avec Goliath, L’alliance des jeunes et des grandes entreprises – 2018

Accuracy conseille Cobepa

Accuracy a été mandaté par Cobepa pour réaliser des travaux de due diligence croisés sur Sparflex et Enoplastic dans le cadre du rapprochement des deux groupes.

Accuracy conseille LVMH

Accuracy a conseillé LVMH dans le cadre de l’acquisition d’une participation minoritaire de Masoni.

Accuracy Brexit Index : une mesure de l’intégration économique entre le Royaume-Uni et l’Union européenne

EN SYNTHESE

Les électeurs britanniques se sont prononcés il y a désormais plus de trois ans, en juin 2016, en faveur de la sortie du Royaume-Uni de l’Union européenne. Depuis, les responsables politiques européens et britanniques cherchent, non sans difficultés, le chemin qui permettra de respecter le suffrage populaire tout en préservant les économies et sociétés des deux partenaires. Ces difficultés s’expliquent par le fort degré d’intégration de deux économies, après plusieurs décennies d’approfondissement du marché intérieur européen.

Il est possible d’analyser les liens économiques qui unissent les deux partenaires à travers quatre dimensions, qui correspondent aux quatre libertés garanties par l’appartenance au marché unique européen : la libre circulation des biens, services, personnes et capitaux. L’Accuracy Brexit Index combine ces quatre dimensions en un unique indice agrégé, dont l’évolution permet de suivre dans le temps le processus d’intégration/désintégration des économies britanniques et européennes.
Sur cette base, cinq grandes tendances se dégagent :

– Alors que le Brexit n’est encore qu’un état futur vers lequel se dirige le Royaume-Uni, les relations avec l’Union européenne, telles que mesurées par l’Accuracy Brexit Index, se sont d’ores et déjà dégradées de 12% ;

– Le vote de 2016, par le contexte d’incertitude qu’il a provoqué, a pesé sur le degré d’intégration des deux économies, affectant principalement les flux d’investissement (baisse de l’indice de 13%) et migratoires (baisse de l’indice de 25%) ;

– L’analyse détaillée des différents types de flux met en exergue deux dynamiques distinctes. D’une part, les flux de capitaux et de personnes sont principalement déterminés par les anticipations des agents et le niveau de prévisibilité de la politique économique : l’impact psychologique du référendum de 2016 et le contexte d’incertitude s’est déjà traduit par une baisse des échanges. D’autre part, les flux de biens et services reposent sur des arbitrages coûts à plus court terme : l’absence de modification des conditions d’échange avant la date effective du Brexit a permis de maintenir à ce stade une certaine résilience des relations commerciales ;

– On observe d’ores et déjà un rééquilibrage des flux migratoires vers le Royaume-Uni, la population asiatique se substituant aux flux en provenance de l’Union européenne. Cette tendance devrait se poursuivre à long terme. Cela s’explique par le fort besoin de main d’œuvre de certains secteurs de l’économie britannique. La promesse des Brexiters de diminuer l’immigration européenne a donc été tenue avant même l’entrée en vigueur du Brexit. Toutefois, les migrants européens ont été remplacés par des migrants asiatiques, si bien que le nombre total de migrants entrant au Royaume-Uni est resté relativement stable ;

– Il est probable d’assister à long terme, une fois le Brexit effectif, à une inversion des effets constatés à court terme dans le sillage du référendum de 2016 : les échanges de biens et services devraient structurellement se réduire, alors que la dissipation de l’incertitude entourant les conditions de sortie pourrait relâcher la contrainte sur les investissements. Ces derniers ne retrouveront cependant probablement pas leur dynamique pré-Brexit. Les flux migratoires en provenance de l’Union dépendront quant à eux des nouvelles conditions d’entrée, et ne retrouveront vraisemblablement pas leurs niveaux historiques.


Leontine Koens-Betz, Managing Partner – Netherlands
Charles Mazé, Associate – France
Daniel Nassar, Associate – France

Accuracy, partenaire du Grand Prix de l’Economie/Les Echos

Jean-Michel Blanquer, Moussa Camara et Annette Roux lauréats du Grand Prix de l’Economie 2018

Les trois lauréats du Grand Prix de l’Economie 2018 remis par « Les Echos » (en partenariat avec Accuracy et le cabinet Darrois Villey Maillot Brochier) ont reçu mardi, à Paris, leur prix des mains du président du jury Henri de Castries. Le ministre de l’Education nationale a été distingué dans la catégorie Politique et Economie. Annette Roux, présidente de Bénéteau, a été choisie dans la catégorie Business tandis que Moussa Camara, le fondateur de l’association Les Déterminés, a été lauréat dans la catégorie Espoir pour son soutien à la création d’entreprise.

 

Accuracy dans la presse – Source : Revue Banque, 02/10/2018 – « Pilotage bancaire : vers des plateformes de planification financière et de stress-test »

Les plateformes intégrées de planification financière et de stress-test s’imposent comme une révolution des pratiques budgétaires et de gestion des risques. Elles permettent de construire des modèles de projection des résultats établis sur des méthodes statistiques, au même titre que les modèles de risques, permettant d’exploiter au mieux le flux croissant de données disponibles […].

Lire l’article complet en cliquant ici.

Accuracy et Claro Group signent un partenariat en vue de faciliter l’accompagnement de leurs clients internationaux

Accuracy, a annoncé la conclusion d’un partenariat avec Claro Group, une firme de conseils en finance et en organisation présente aux États-Unis.

La structure capitalistique et la gouvernance de chaque société demeurera inchangée, mais le partenariat renforcera l’efficacité de chacune à travers un partage de ressources, de connaissances et des meilleures pratiques afin de mieux servir une clientèle internationale en constante croissance.

Accuracy conseille Debiopharm

Accuracy a réalisé la due diligence financière pour le compte de Debiopharm Investment dans le cadre de la levée de fonds pour Carbonex.

Accuracy conseille Unibail-Rodamco Westfield

Accuracy a réalisé la vendor due diligence pour le compte de Unibail-Rodamco Westfield dans le cadre de la cession de 4 de ses centres commerciaux en Espagne Los Arcos, Bahía Sur, el Faro et Vallsur.

François Filion reçoit le titre de Fellow de l’Ordre des CPA

MARS 2018

C’est avec beaucoup de fierté que François Filion, associé-directeur d’Accuracy Canada reçoit le titre de Fellow (FCPA) de l’Ordre des comptables professionnels agréés du Québec, un honneur remis annuellement aux CPA s’étant démarqués dans leur profession.

Co-fondateur d’Accuracy Canada en 2011, François Filion compte plus de vingt années d’expérience en pratique de la juricomptabilité et de la finance corporative.

« C’est un véritable honneur de recevoir ce titre de l’Ordre des CPA et de voir mon travail des dernières années récompensé. Depuis plusieurs années, j’œuvre à faire rayonner la profession et m’engage à former une relève qualifiée et dévouée », a souligné François Filion.

Comment la banque de détail peut se fabriquer un avenir ?

 

La banque de détail subit une baisse de sa rentabilité depuis dix ans

Sous pression depuis de nombreuses années, le métier de la banque de détail a connu une forte dégradation de sa rentabilité. De 17% en moyenne pour les banques françaises en 2000, celle-ci a fortement chuté après 2008 pour se stabiliser autour de 8 à 9% depuis quelques exercices. Le price to book est à l’avenant, avec des valeurs autour de 0,5 en moyenne, et une fourchette allant de 0,3 à 0,7 en Europe.

Cette détérioration a de fait banalisé le secteur bancaire par rapport à bien d’autres. Son ROE est aujourd’hui inférieur à celui de secteurs tels que les télécoms ou les biens de consommation, sans parler de la santé, nouvel eldorado des investisseurs. Quant au price to book, celui du secteur bancaire est l’un des pires tous secteurs confondus après avoir longtemps caracolé en tête.

L’une des causes de cette banalisation réside dans l’anémie de la marge d’intérêts. Comparée à celle de 2009 sur l’ensemble des banques françaises, celle-ci a chuté de 10% en dix ans, alors même que les encours ont, au cours de cette période, augmenté de plus de 10%. Cette course aux volumes et aux encours est néanmoins désormais bien plus difficile à mener du fait de son coût en RWA, et donc en fonds propres.

Dans ce contexte, les banques françaises sont toutefois parvenues à afficher des résultats plutôt stables en 2018. Le PNB global de la banque de détail des six principales banques de la Place est stable par rapport à 2017, autour de 60 milliards d’euros. Quant au résultat net de ce même métier, il est lui aussi resté stable à environ 18 milliards d’euros, malgré quelques légères variations d’un établissement à l’autre.

Cette stabilité ne saurait cependant masquer l’ampleur des défis qui vont toucher le secteur dans les années à venir, après pourtant déjà dix années de vaches maigres. Il est possible d’en compter au moins cinq, quatre appartenant à la sphère financière et réglementaire, et un à la sphère commerciale, probablement la plus dangereuse à long terme. Conjugués ensemble, ces défis peuvent entamer les ROE de 2,5 points supplémentaires d’ici 2025.

 

Quatre défis affectent la sphère financière et réglementaire

Le premier défi est d’ordre nucléaire pour le métier. Il s’agit, naturellement, du niveau des taux. La banque de détail joue un rôle majeur dans l’économie, en assurant la fonction fondamentale de transformation de ressources à court terme, les dépôts, en ressources à long terme, les prêts immobiliers et aux entreprises notamment. L’ALM est cœur de cette transformation, qui nécessite une courbe des taux croissante, avec idéalement une pente de 2%.

Or, la politique monétaire mise en place après la crise de Lehman Brothers a conduit à une double baisse des taux : les courts dans un premier temps, par l’abaissement des taux directeurs, et les longs dans un deuxième, par les programmes de quantitative easing. La pente en Europe est progressivement devenue quasi nulle. Or, gagner de l’argent avec une pente nulle est un défi aux lois fondamentales du métier, qui, de fait, se trouve dans une situation inédite et dangereuse.

Le deuxième défi concerne les fonds propres. Entre 2005 et 2018, les banques françaises dans leur ensemble les ont plus que doublé sous l’effet de Bâle 3. Ils représentaient fin 2018 près de 300 milliards d’euros contre 130 en 2005. Mais après Bâle 3 voici que Bâle 4 s’annonce. L’impact sera certes beaucoup moins élevé que celui évoqué précédemment, mais cette hausse pourrait encore amputer le ROE de quelques précieux dixièmes de point.

Troisième défi, conjoncturel cette fois : le coût du risque. Tous métiers confondus, il est passé de 0,1% des encours en 2005 à près de 1,3% en 2009, avant de retrouver progressivement des niveaux d’avant crise, autour de 0,3% en 2018. Cependant, si la conjoncture devait se dégrader, la courbe pourrait à nouveau s’inverser. Chaque dixième de point de coût du risque en plus représente deux milliards d’euros pour les banques françaises. Ce n’est pas négligeable.

Dernier défi de la sphère financière et réglementaire, en théorie aléatoire, mais au final plutôt structurel depuis une dizaine d’années : les amendes. Depuis 2007, les régulateurs européens et américains ont infligé 230 milliards d’amendes aux banques internationales, dont les subprimes ont représenté près de 70%. On peut donc penser que le pire est passé, mais la fraude et le blanchiment pourraient bien prendre le relai des subprimes et poursuivre la saignée en cas de manquements.

Au final, ces quatre défis pourraient amputer le ROE des banques françaises de presque deux points de ROE supplémentaires, ramenant le secteur à des niveaux extrêmement bas à un horizon de cinq ans. Au-delà de la performance en elle-même, c’est aussi un handicap au moment où il faudrait investir massivement pour répondre au défi suivant, celui du fonds de commerce et du développement.

 

Le défi commercial constitue la menace principale sur le long terme

Ces quatre défis ne constituent pourtant pas l’essentiel des menaces qui affectent le secteur. La sphère commerciale n’est en effet pas exemptée de difficultés, avec un renforcement constant de l’intensité concurrentielle liée à trois facteurs : l’abaissement des barrières à l’entrée, la transformation des usages et la révolution technologique en cours. De nouveaux acteurs en profitent, les néobanques, qui menacent ainsi les banques traditionnelles.

Si l’on refait un peu l’histoire des néobanques depuis 30 ans, on peut considérer qu’il y a eu deux phases. La première a vu des distributeurs, comme Carrefour et Casino, et des assureurs, comme Axa et Allianz, étendre leurs offres à des services bancaires, dans une logique de fidélisation de la clientèle notamment. En réponse, les banques traditionnelles ont le plus souvent créé des banques en ligne, dans une logique de rétention.

Depuis les années 2010, le contexte a changé, et de nouvelles catégories d’acteurs ont tenté de pénétrer le marché, avec des modèles relativement opposés. Les premiers sont des acteurs tels que Revolut ou N26, qui tentent de créer ex nihilo des banques low cost mais avec une offre complète, en nouant notamment des partenariats. Ces acteurs sont dans une course de vitesse afin d’atteindre une taille critique.

Les deuxièmes nouveaux entrants sont des acteurs des nouvelles technologies, qui entrent par la porte des services, les paiements notamment, et ne cherchent pas à imposer d’emblée une gamme complète de services. Il peut ici s’agir d’Apple Card ou d’Apple Pay, mais aussi d’Amazon dans l’assurance par exemple. Ces acteurs participent ainsi au mitage progressif des revenus des banques traditionnelles.

Ce phénomène de mitage ne cesse de prendre de l’ampleur, sous l’effet de l’arrivée chaque année d’environ 300.000 clients dans les néobanques. Au départ, le PNB par client y est très inférieur à celui d’une banque traditionnelle, le client n’ouvrant souvent qu’un compte secondaire. Mais avec le temps, et la complétude progressive des gammes de produits, l’équipement s’accroît et le compte peut basculer en principal.

Les néobanques imposent de nouveaux standards en matière de qualité, de deux façons. D’abord, par des taux de satisfaction élevée sur les applications digitales. Certaines banques traditionnelles ont néanmoins déjà réagi en procédant à un upgrade significatif de leurs applications. Les néobanques ont ensuite imposé l’ouverture de compte immédiate, en quelques minutes, assez loin des standards traditionnels.

Néanmoins, malgré des succès commerciaux parfois indéniables, aucune néobanque n’est parvenue à trouver le chemin de la rentabilité, l’agressivité des offres de bienvenue étant souvent un frein à celle-ci.

 

De ce fait, le modèle des banques traditionnelles peut paraître à court terme encore partiellement protégé

Usuellement, la banque de détail est présentée sous la forme de deux univers complémentaires : le premier, non bilantiel, comprend les services relatifs aux paiements et à la banque au quotidien ; le deuxième, bilantiel, recouvre l’épargne, le crédit et l’assurance. Depuis quelques années, un troisième univers a émergé chez quelques acteurs, sous la forme de services de proximité complémentaires, tels que la téléphonie ou la domotique.

Les barrières à l’entrée des deux univers principaux ont globalement baissé ces dernières années, mais de façon non homogène. Concernant l’univers non bilantiel, elles ont fait l’objet d’un double abaissement, à la fois réglementaire (DSP2, open banking, RGPD…) et technologique (progrès du digital, intelligence artificielle). L’univers bilantiel est mieux protégé, via les réglementations multiples sur les fonds propres et la liquidité, mais subit malheureusement le fléau de l’absence de pente lié à l’aplatissement de la courbe des taux.

Dans ce contexte, le risque pour les banques traditionnelles est de devenir simplement le bilan d’autres acteurs qui capteraient la relation client. Les banques traditionnelles ont l’avantage du savoir-faire et de l’existence d’un réseau de distribution, mais elles sont en général moins en pointe sur l’expérience client et la technologie par rapport aux banques en ligne et plus encore aux fintech.

Néanmoins, le réseau physique est un vrai avantage et facteur différenciant fort, pour au moins trois raisons. Il est d’abord vecteur de proximité dans un contexte de redécouverte du centre-ville depuis quelques années. Il facilite également le contact humain, permettant un vrai dialogue avec le consommateur et l’apport de conseils sur-mesure. Enfin, le passage en magasin a un vrai sens dans une période du tout numérique.

D’ailleurs, le numérique ne répond pas à 100% des besoins relatifs aux services financiers. L’univers le plus menacé est bien sûr celui de la banque au quotidien et des paiements, très sensibles à la vitesse et au prix, deux facteurs bien servis par le digital. En revanche, l’univers bilantiel est moins vulnérable, et la possibilité de rencontrer un conseiller demeure un avantage dans l’octroi d’un crédit immobilier ou le conseil sur de l’épargne.

 

Les banques traditionnelles doivent continuer à accélérer leur mutation commerciale et organisationnelle

Afin de résister à la montée en puissance des nouveaux acteurs, l’univers non bilantiel se doit d’être upgradé au niveau des meilleures pratiques en matière de digital et de mieux encore différencier sa tarification en fonction des clients. Quant à l’univers bilantiel, il doit capitaliser sur l’existence d’un réseau physique souvent placé dans des endroits d’excellence, d’accroître encore la qualité du conseil apporté et de mettre en place des programmes de fidélité mieux segmentés.

Ces constats dessinent un plan d’action en forme de triptyque, reposant sur la diversification, l’ubiquité et un usage respectueux des données.

La diversification est clef pour permettre aux banques traditionnelles de sortir de l’équation impossible d’un univers non bilantiel ouvert à de nouveaux acteurs plus agiles et d’un univers bilantiel soumis à des taux asphyxiants. L’extension vers de nouveaux services de proximité permettrait de développer les revenus tout en accentuant le lien et le contact avec leur fonds de commerce.

Ces services doivent dans un premier temps être définis par adjacence par rapport au cœur de métier actuel, autour des événements majeurs de la relation. Le logement, et l’acquisition immobilière notamment, s’y prêtent naturellement très bien. Mais il est possible d’aller au-delà, vers les services relatifs aux déplacements, voire à certains loisirs. Ces élargissements successifs permettront aux banques de devenir un acteur clef du quotidien de leurs clients.

L’ubiquité est le deuxième axe, très complémentaire du premier. Le réseau physique, bien que coûteux, constitue un avantage majeur pour les banques traditionnelles. Il reste à les transformer pour en faire des lieux de vie à même de faire revenir une large clientèle. Mais il faudra aussi concilier ce réseau physique avec un digital irréprochable, développé en interne ou via des partenariats avec des fintechs.

Cependant, les banques ne pourront tirer profit pleinement de l’avantage de leur réseau physique que si elles parviennent à délivrer dans le même temps la qualité de conseil attendue par leurs clients. Il faudra pour ce faire répondre à trois attentes majeures : une stabilité de la relation client / conseiller ; une attention particulière dans les moments clefs de la vie (chômage, retraite, divorce) ; un conseil personnalisé pour certains produits (assurance vie, crédit immobilier notamment).

Enfin, les banques traditionnelles ont un rôle majeur à jouer dans l’utilisation de la donnée, en devenant un partenaire de confiance de leurs clients et en prenant ainsi le contrepied des GAFA. Si elles y parviennent, elles peuvent regagner des points dans la bataille de l’image. D’autant plus que clients semblent prêts à partager leurs données si cela va de pair avec une meilleure qualité de conseil.

Ces trois axes peuvent constituer le cœur d’un plan à cinq ans visant à regagner tout ou partie des points de ROE qui vont être perdus. Ces actions ne seront néanmoins pas suffisantes, et viendront compléter les plans d’économies et de simplification des process déjà lancés dans tous les établissements, et qui vont devoir encore être accélérés.

Dans un contexte aussi tendu de toute part, le métier est un peu à la croisée des chemins, sommé de se réinventer pour prendre en compte les changements dans les usages et l’arrivée de nouveaux acteurs, tout en étant privé d’une partie de ses moyens financiers pour investir de par l’absence de pente. Face à ces défis, tous les acteurs ne sont pas égaux, et les établissements ne suivront probablement pas tous la même trajectoire.

Football Episode 4 – La vraie valeur d’un club de football

Deuxième auteur :
Franck Bancel (Academic Advisor)

 

A l’occasion de la cession de clubs de football, les valeurs qui sont divulguées sont extrêmement variables selon les championnats et les pays concernés (de quelques millions pour un club français de Ligue 2 à plusieurs centaines de millions d’euros pour un club anglais de Premier League). Pourquoi de tels écarts ? Ces valeurs reflètent-elles une bulle ou des erreurs de valorisation ? Au contraire, sont-elles le fruit de la mise en œuvre des méthodes d’évaluation que l’on utilise dans les autres secteurs ?

Pour répondre à ces questions, Franck Bancel et Henri Philippe, co-auteur d’un ouvrage sur la valeur des clubs de football proposent de distinguer trois types de valeur : la valeur financière, la valeur de transaction et la valeur sociétale. Ces trois valeurs peuvent être représentées comme des cercles concentriques qui s’élargissent successivement : au centre, la valeur financière et, à l’extérieur, la valeur sociétale.

 

Cadre financier

La valeur « financière » est celle qui revient aux seuls actionnaires du club. Elle se détermine en recourant aux méthodes d’évaluation proposées par le cadre financier standard. Pour mesurer cette valeur financière, la méthode DCF (ou « discounted cash flows ») demeure la plus pertinente. Il s’agit d’actualiser les flux de liquidité futurs fondés sur des scénarios cohérents avec l’environnement économique et le projet sportif du club. Dans ce contexte, les clubs des grands championnats européens pour lesquels les droits audiovisuels sont élevés ou ceux qui possèdent leur stade ont la plus grande valeur financière.

La valeur de « transaction » est supérieure à la valeur financière dans la mesure où elle intègre une partie des synergies que l’acquéreur est prêt à payer. Ces synergies peuvent être de nature commerciale, par exemple, quand un club est une vitrine médiatique pour un entrepreneur qui compte utiliser le club pour valoriser ses autres activités. Elles peuvent également représenter le prix à payer pour être exposé médiatiquement ou atteindre d’autres objectifs (philanthropiques, politiques, etc.). Enfin, les acheteurs peuvent dégager d’autres synergies liées par exemple à la propriété de plusieurs clubs.

 

Valeur sociétale

Enfin, la valeur « sociétale » est celle qui prend en compte la valeur créée pour l’ensemble des parties prenantes (en économie, on parle également « d’externalités »). Il s’agit de mesurer l’impact d’un club sur la création de richesse d’une ville ou d’une région. Cette valeur prend en compte l’ensemble des retombées économiques directes (chiffre d’affaires des commerçants en hausse les jours de matchs, etc.) et indirectes (attractivité renforcée de la ville ou de la région dans laquelle évolue un club de premier plan, etc.). Dans certains cas, cette valeur sociétale est considérable quand un club est le porte-drapeau d’une région et devient une véritable institution (par exemple, le FC Barcelone). Par définition, ces flux pour les parties prenantes sont très difficiles à déterminer.

Au total, un club de football est le plus souvent cédé à une valeur de transaction qui est supérieure à sa valeur financière, mais significativement inférieure à sa valeur sociétale. Comprendre ses différents concepts permet d’appréhender les différentes dimensions de la valeur d’un club de football. Sur le fond, si les modèles financiers permettent de définir la valeur financière d’un club et, dans une moindre mesure, sa valeur de transaction, la valeur sociétale demeure largement hors de portée du cadre financier standard


Article des Echos – 09/07/2019

Litige Episode 1 – All in ! Peut-on sortir le monde de la construction de l’addiction du jeu ?

 

Le secteur de la construction n’est pas le seul à le constater mais il en est un exemple frappant : son marché est à double fond. Depuis plusieurs décennies les grandes entreprises internationales de construction sont engagées dans une singulière partie qui récompense souvent non pas le meilleur bâtisseur, mais le plus téméraire.

 

1. DISTRIBUTION DES CARTES

Prenons l’exemple d’un appel d’offres international qui verrait s’affronter au moins cinq acteurs majeurs pour la construction d’un nouvel aéroport. En raison d’une concurrence mondiale exacerbée, il y a fort à parier que le vainqueur remporterait la donne autant pour sa créativité et sa technicité que pour son audace à prendre des risques et proposer un prix lui accordant une marge faible voire quasi nulle. Charge à lui de réaliser un profit grâce à une autre nature de projet : la réclamation, à travers une négociation amiable ou devant un tribunal. Son bénéfice se sera construit en deux temps et selon deux processus bien distincts.

Etrange situation qui fait espérer à tout constructeur de rencontrer des difficultés ou voir se matérialiser certains risques qui ne sont pas de son ressort, afin de disposer d’autant d’opportunités de réviser son contrat et ses prix. Citons pèle mêle les retards dans l’obtention des instructions techniques, la qualité des sols, la défaillance de co-entreprises, les bouleversements sociaux, les grèves, les découvertes archéologiques, les libérations de terrains, des changements techniques etc… Tout autant de possibilités de remettre en cause le prix contractuel et d’ouvrir une négociation avec l’espoir de retrouver sa mise. Mais lors d’un terrassement, tout le monde ne tombe pas sur des vestiges gallo-romains. Première part de hasard.

 

2. DEUXIEME MAIN

Il est peu probable de voir le marché résorber de lui-même le caractère chaotique de son fonctionnement bien que les prix de la construction aient atteint des niveaux qui réduisent considérablement les espoirs de réaliser un profit. Au contraire, tout semble montrer que ce modèle d’activité tend à se pérenniser, repoussant la création de valeur vers d’autres collèges que ceux des directions opérationnelles et de l’ingénierie.

Les différents acteurs, engagés aux côtés de ces entreprises pour les aider à analyser les faits, établir les causes de leurs difficultés, dire le droit et chiffrer leurs préjudices, pourraient se réjouir de la multiplication des dossiers. Ils façonnent un véritable marché du contentieux de la construction, sous de multiples formes allant de la classique négociation à l’arbitrage international. Il est cependant permis de penser que ce marché mérite mieux qu’un recours fréquent et très coûteux à des procédures de règlement des différends qui semblent se succéder sans véritablement connaître de courbe d’apprentissage.

Les constats restent souvent les mêmes. Les constructeurs peinent, à la fin d’un grand projet, à être en mesure d’en revisiter a posteriori l’exécution afin de démontrer la séquence logique des faits qui expliquent retards et surcoûts. Il est par principe extrêmement difficile de prendre le recul nécessaire pendant l’exécution d’un projet pour mesurer toutes les conséquences de tel ou tel évènement sur trois variables clés d’un ouvrage: la qualité, le temps et le coût. Reste par conséquent nécessaire d’exploiter au mieux les informations de plusieurs natures qui ont été collectées afin de reconstituer plus tard la succession des faits qui racontent l’histoire du projet : données comptables, données de planning, personnels en activité, météorologie, matériels utilisées sont autant de données clés pour reconstruire parfois jour par jour et ouvrage par ouvrage l’avancement de grands chantiers.

A ce jeu, les constructeurs sont rarement exercés et il est frappant de constater le grand écart entre la technicité déployée au service de leurs clients et le peu d’empressement à appliquer la même exigence à leurs pratiques de gestion. Les experts et leurs clients s’évertuent donc à conduire bien tardivement une véritable enquête où les indices laissés par les parties sont souvent incomplets, disparates voire inexistants. Le jeu de piste n’en est que plus long, parfois hasardeux et laisse la place à des approximations, voire au bluff, qui entachent la crédibilité des négociations ou des audiences.

Autant d’imprécisions qui, faute de mieux, conduisent à des protocoles transactionnels déséquilibrés ou poussent les tribunaux à de décevants jugements de Salomon. Après le pari de la reconstitution de la marge, s’ajoute l’incertitude d’une négociation faiblement argumentée. Seconde part de hasard.

 

3. DU CLUEDO A MASTERMIND

La lecture aisée d’un résumé du projet, qui se serait écrit au fil de l’avancement des travaux grâce à d’efficaces procédures de collecte et de traitement d’information, relève certainement du rêve. Ce type d’exercice dont l’objectif fondamental est de mesurer et expliquer l’écart entre ce qui était prévu et ce qui s’est réalisé, requiert toujours une revue à froid et des analyses poussées. Mais, entre l’avènement d’une intelligence artificielle capable de réaliser en temps réel ce travail et l’état actuel de l’art, la marge est importante. Le secteur de la construction est en matière d’utilisation de nouveaux outils de gestion parmi les derniers de la classe. Ce retard par rapport à d’autres secteurs est d’autant plus prégnant que pointe à l’horizon une véritable révolution numérique.

Le monde de la construction a pris conscience de l’intérêt des outils de modélisation il y a maintenant plusieurs années. Ce que l’on appelle le BIM, pour Building Information Modelling, est l’application à la construction de l’assistance au pilotage des ouvrages selon plusieurs axes : vision 3D des ouvrages, capacité à naviguer dans les historiques des plans, des budgets, pister les responsabilités dans la délivrance des autorisations, possibilités de visualiser les temps passés par ouvrage, etc. Le BIM dans ses versions les plus abouties deviendrait une bibliothèque de données complète de l’ouvrage permettant de le « lire » tant d’un point de vue technique que financier ou juridique. Il est permis d’imaginer à terme un suivi en temps réel des équipements et des équipes afin de reconstituer immédiatement les moyens mobilisés, identifier rapidement les pertes de productivité, chiffrer leurs conséquences. Tout cela afin de déterminer des solutions optimisées de construction et de déploiement d’équipes qui répondent au mieux à la contrainte jugée prépondérante (respect du planning, minimisation des surcoûts, etc..).

Ces systèmes existent et sont utilisés, mais dans des versions encore préliminaires. Leur développement et leur réelle application dans la vie des projets constituerait une révolution des méthodes de construction et de suivi de projets tant leurs implications sont nombreuses. Rien ne s’oppose à cela puisque le chantier est d’ores et déjà un lieu de collecte d’informations pléthoriques. Etrange paradoxe qui voit les acteurs de la construction hésiter à entrer dans un monde qui semble dessiné pour eux ! Entre la diversité des données à analyser (personnels, équipements, matières), et la capacité à les suivre selon un axe technique, temporel et géographique, les outils numériques sont tout indiqués pour extraire de ces données des analyses extrêmement variées. Quelles seraient-elles ?

Il est permis d’anticiper deux phases successives d’utilisation de la donnée.

La première serait tournée vers l’entreprise. Celle-ci utiliserait la masse des données disponibles avec l’objectif d’améliorer la conduite de ses projets ou de mieux démontrer la véracité de ses difficultés. La connaissance en temps réel de la situation améliorerait la réactivité des constructeurs qui piloteraient un modèle intégré de ressources et de coûts avec l’objectif d’en trouver l’optimum, à qualité constante. Le dialogue avec leur client serait plus rationnel, réactif et transparent, au grand bénéfice des directions juridiques des constructeurs qui sauraient mieux préserver leurs droits.

Par ailleurs, la collecte des données permettrait de mieux comprendre et démontrer les mécanismes de la perturbation générale d’un projet, qui résulterait de l’observation de la déformation du modèle dans des cas extrêmes de difficultés nombreuses ou répétées. La littérature est abondante pour expliquer le principe des impacts cumulés sur le rendement d’un chantier. Il se comprend intuitivement : passée une certaine accumulation de difficultés, la désorganisation atteint un tel niveau que les rendements s’effondrent alors que chacune des perturbations prise isolément n’aurait à elle seule que peu d’effet. Pour autant, le monde de la construction a bien du mal à démontrer le phénomène et le quantifier. La plupart des réclamations pour perturbation générale doivent se contenter de l’illustrer qualitativement et tabler sur le caractère démonstratif des évènements censés être à sa source. En analysant systématiquement des données de rendement sur un grand nombre de projets dont l’environnement d’exécution serait enregistré et codifié, le lien de causalité entre la coexistence de nombreuses perturbations et le ralentissement exponentiel de la productivité des travaux pourrait (enfin) être établi. Les tribunaux disposeraient alors de véritables démonstrations pour trancher en connaissance de cause des problématiques qui font aujourd’hui place à beaucoup trop d’intuition ou au mieux d’inférence.

 

4. VERS UN JEU COLLECTIF

La seconde, plus ambitieuse encore, verrait l’établissement d’une plus grande transparence des résultats entre les acteurs de la construction, clients et fournisseurs, au bénéfice du marché. Le monde aéronautique a intégré cette dimension depuis longtemps en partageant un grand nombre de données notamment issues des incidents ou accidents de vol, avec la volonté d’améliorer la sécurité du secteur. Or les avancées technologiques et l’audace des ouvrages contemporains qui induisent de nouveaux risques devraient pousser ceux-ci à établir une plus grande transparence des caractéristiques des projets : caractéristiques techniques tout d’abord mais aussi réalité des moyens mis en œuvre. La révolution de la donnée induirait une avancée majeure en termes de gestion des grands projets à l’échelle mondiale. A l’image d’autres secteurs, une instance mondiale de coordination pourrait remplir un rôle de facilitateur en collectant systématiquement et de façon anonyme les caractéristiques d’un projet selon ses différentes composantes (technique, coûts, délais), toutes finement détaillées. Le projet serait enregistré et caractérisé en tenant compte de l’ensemble de son exécution jusqu’à sa phase contentieuse. Charge à cet organisme de les mettre librement à disposition, de les analyser, d’encourager l’étude et la recherche à partir de ses bases de données, voire d’émettre des avis indépendants sur la cohérence des propositions lors des phases d’appels d’offre.

La mise à disposition de ces données anonymes sur un marché ouvert dont la diversité d’acteurs libres accélèrerait les innovations, favoriserait les transferts des bonnes pratiques de secteur à secteur, renforcerait les liens entre grandes entreprises, les start-ups, les chercheurs. Ce flux d’informations libres permettrait de décloisonner le monde de la construction, de bénéficier d’expertises nouvelles et de favoriser les innovations de rupture en mutualisant les coûts d’investissements parfois importants que la rentabilité du secteur ne permet pas.

Gageons que cette « tour de contrôle » internationale contribuerait à rétablir des règles de jeux plus rationnelles au bénéfice de toutes les parties prenantes, maîtres d’ouvrage, maîtrise d’œuvre et constructeurs. Elle aiderait à corriger la dérive des prix en montrant et quantifiant le caractère systématique des réclamations financières émises par les constructeurs lors de leurs négociations finales, ainsi que les coûts induits par celles-ci. Il serait alors plus aisé, en utilisant les références disponibles, de bannir les comportements suicidaires et plus généralement d’encadrer les négociations, lors de l’appel d’offre ou à la fin du projet. Les échanges seraient éclairés par un arsenal de situations comparables qui réduirait le champ des incertitudes et permettrait d’enclencher un cercle vertueux de fixation de prix justes. A terme, la circulation d’informations et le partage de données rationnelles ferait converger l’économie des projets. Ces échanges uniformiseraient les marges, à qualité d’ouvrage comparable, et rendraient plus épisodique le recours à de lourds processus contentieux. Les ruptures technologiques n’en seraient que plus mises en valeur.

 

5. CONCLUSION

Et maintenant ? Les constructeurs peinent à faire le premier pas, sans doute le plus difficile, en formant sur le terrain une nouvelle génération de bâtisseurs à l’utilisation de ces outils. Sans doute faut-il commencer avec une ambition raisonnable, en constituant pas à pas son propre référentiel regroupant outils et bonnes pratiques qui soit pleinement accepté par ses utilisateurs. Ils seront les acteurs clés de la collecte quotidienne des données, leur enrichissement par l’analyse et en seront les premiers bénéficiaires dans leur travail. La puissance des outils laisse entrevoir un bouleversement profond des tâches confiées aux managers de la construction. Les premiers convaincus disposeront d’un avantage compétitif majeur pour optimiser leurs coûts et défendre leur rentabilité, bouleverser le marché en modernisant drastiquement leur relation avec leurs clients par le biais d’un dialogue transparent et argumenté.

L’entreprise qui y parviendra aura cassé les codes du marché.

Stress test Episode 2 – Modélisation prospective des revenus bancaires : revue des méthodes statistiques

Quatrième auteur :
Gael Chalvon Demersay

 

Dans le premier épisode d’octobre, les auteurs ont décrit1 comment les outils de planification financière évoluent, sur demande du régulateur, vers des plateformes intégrées qui permettent de produire des projections budgétaires et des stress tests à partir de modèles quantitatifs. L’objectif de cet article est de compléter la vision « projet, outil et gouvernance » d’une revue des approches statistiques qui sont au cœur des dispositifs de planification.

L’introduction de méthodes quantitatives s’invite progressivement dans les exercices de planification financière. Motivées par la multiplication d’exercices de stress tests et la volonté de compléter la vision à dire d’expert des opérationnels, les banques développent des modèles de projection des revenus de leurs différents métiers.

Ces projections peuvent s’appuyer sur différentes natures de modèles (mécaniques analytiques, modèles comportementaux ALM, etc.). Pour la projection des volumes d’activité, les modèles économétriques2 sont au cœur du dispositif. Cet article détaille les problématiques (notamment statistiques) auxquelles les équipes de modélisation font face et propose quelques pistes de réflexion pour les dépasser.


1. L’APPROCHE STATISTIQUE EST AU CŒUR DE LA CONSTITUTION DE MODELES DE PROJECTION

Les modèles statistiques permettent d’utiliser les historiques de mesures de performance d’une activité pour définir des relations mathématiques entre ces mesures et des variables externes (variables macro-économiques, données du marché bancaire, etc.) ou internes (saisonnalité). Les projections consistent alors en des modèles de régression multivariée, linéaires ou non-linéaires3.

Dans le cadre de ces travaux, un compromis doit souvent être trouvé entre facilité d’implémentation et d’appropriation par les métiers d’une part, et puissance prédictive et robustesse statistique d’autre part. La démarche pour aboutir à ce compromis consiste alors à mettre en œuvre une démarche itérative en trois étapes (comme le détaille le schéma 1) :

1. la récupération et la transformation de la donnée,
2. la construction du modèle,
3. l’évaluation de la performance du modèle.

Processus itératif menant à d’élaboration d’un modèle (schéma 1)

01


  • – Mises en place organisationnelle permettant de collecter une donnée de qualité.
  • – Transformation pour rendre la donnée exploitable via la suppression des événements exceptionnels, complétion des données manquantes, dessaisonalisation et autres transformations mathématiques potentielles.
  • – Le choix des modèles en étape 2 doit dépendre de la qualité et de la profondeur historique des données.

02


  • – Choix du modèle appliqué
    – linéaire en première approche puis utilisation de méthodes de modélisations plus poussées en fonction des données et du type de business étudié.
  • – Les méthodes d’apprentissage automatique permettent d’orienter les choix des variables, on leur préférera les méthodes plus standards :
  • a) Plus faciles à mettre en place
    b) Permet d’obtenir des résultats plus simples à auditer (problématique de la « black-box » des projections en Machine Learning).

03

  • – Utilisation de tests statistiques pour tester la robustesse mathématique des modèles;
  • – Backtesting des modèles sur des périodes historiques;
  • – Test de la sensibilité du modèle à un choc sur les variables explicatives.


2.
LA GESTION DE LA DONNEE : PREREQUIS A LA CONSTRUCTION DE MODELES STABLES

La qualité des approches statistiques dépend fortement des données sur lesquelles s’appuient les travaux de modélisation. En effet, si les données historiques à partir desquelles sont définies les relations avec les indicateurs macro-économiques (ou autres indicateurs) comportent des effets venant les « polluer », les modèles sont moins précis voire peuvent mener à des conclusions erronées. Dans ce contexte, la validation avec les métiers de la qualité des données est un prérequis à toute analyse statistique. Il est important d’impliquer des membres des équipes métiers dans cette réflexion afin de capter l’ensemble des éléments « non-normatifs ». Une fois ces vérifications réalisées, des transformations de séries de données peuvent améliorer la qualité des modèles à tester dans l’étape (2). La pertinence de ces transformations doit tenir compte de différents types d’effets dont :

– la représentativité d’éléments business dits exceptionnels (one-offs), comme des fusions et acquisitions d’ampleur (« jumbo deals ») ou des chocs fiscaux, qui peuvent en réalité être récurrents ;

– la complétion de données manquantes et/ou asynchrones. Par exemple, on peut souhaiter projeter mensuellement un indicateur à partir de prédicteurs disponibles seulement trimestriellement. Dans ce cas, il est soit possible de s’appuyer sur des séries trimestrielles (ce qui implique de perdre des points d’analyse), soit d’interpoler mensuellement (de façon linéaire ou non), voire de réaliser un filtrage4 en complétant les données manquantes par des estimations statistiquement cohérentes issues d’indicateurs ayant une plus grande fréquence ;

la saisonnalité5, à retraiter par exemple dans le cas de variables explicatives non saisonnières. La transformation de dessaisonalisation peut se baser sur l’algorithme ARIMA-X126 ou la procédure STL basée sur des régressions locales7 ;

– le lissage de la série à expliquer, par exemple en calculant une moyenne mobile8 ;

l’introduction d’un effet retard, ou lag, sur la série à expliquer.

D’autres transformations mathématiques pourront alternativement être appliquées sur les séries pour itérativement améliorer les résultats des modèles évalués pendant l’étape d’évaluation des modèles (3) :

la différentiation des données – d’ordre un ou deux – avec une fréquence courte (un trimestre par exemple) ou longue (une année par exemple). Ceci permet généralement de corriger le biais statistique de la non-stationnarité9, mais peut parfois se révéler instable en projection ;

– l’application de fonctions (rendement, carré, logarithme) visant à capter des effets non linéaires ;

l’utilisation de modèles en co-intégration (voir ci-dessous) en cas de non-stationnarité des variables à expliquer.

L’appréciation de la qualité des données collectées ainsi que les caractéristiques des transformations qui leur ont été appliquées pendant l’étape de collecte de la donnée (1) doivent être prises en compte dans le choix du modèle développé pendant l’étape de modélisation (2). En effet, la profondeur historique des données doit être suffisante pour capter des situations distinctes (crises, scénarios de taux différenciés, etc.) et les données doivent présenter des réalités métier comparables (par exemple un effet d’échelle lié au nombre de traders sur un desk ou une réorganisation de l’activité doivent être pris en compte pour harmoniser les séries d’un point de vue statistique).


3. ADAPTER LA DETERMINATION DES VARIABLES EXPLICATIVES ET L’EXPRESSION DU MODELE A L’ENVIRONNEMENT

 

Choix du modèle

L’expression du modèle doit s’adapter aux besoins des utilisateurs de l’outil.

– Les approches linéaires, par exemple, sont plus simples à mettre en œuvre mais ne permettent pas de capter des relations plus complexes qu’une relation affine entre la variable (ou sa croissance) et son inducteur (ou sa croissance). Couplées à l’utilisation de transformations non linéaires sur les variables explicatives du modèle, les approches linéaires simples permettent cependant de capter des non-linéarités. Par exemple, le logarithme des crédits immobiliers peut être corrélé au logarithme de la croissance du revenu des ménages. L’utilisation de la transformation logarithmique permet d’associer des variables dont l’ordre de grandeur est différent.

– Les méthodes d’apprentissage automatique10, comme les forêts aléatoires11, sont de très bons outils pour orienter le choix des variables. Elles sont par contre rarement conservées pour la projection elle-même car elles sont souvent complexes à mettre en place et difficiles à auditer pour le régulateur. En outre, elles ne mettent pas toujours en exergue de driver exogène de l’activité et peuvent rester trop centrées sur des formes autorégressives12.

 

Modèles en co-intégration

En cas de non-stationnarité, les modèles statistiques classiques sont instables et des techniques spécifiques sont à mettre en œuvre. Une notion aujourd’hui centrale est la notion de modèle en co-intégration pour des variables macro-économiques. Un ensemble de variables est co-intégré avec la série observée s’il existe une combinaison des variables permettant d’annuler « la tendance stochastique » de la série observée pour aboutir à une série stationnaire. Par exemple, il a été démontré qu’aux Etats-Unis, la consommation (réelle, par habitant) et le revenu disponible (réel, par habitant) sont co-intégrés, soulignant une relation stable entre ces deux séries non stationnaires.

Ces variables co-intégrées sont alors liées avec la série observée par une équation linéaire dite « long-terme » qui s’interprète comme un équilibre macro-économique par rapport auquel les écarts constituent des fluctuations temporaires. En reprenant l’exemple précédent, une fluctuation temporaire de la consommation par rapport au revenu disponible peut survenir à un trimestre donné, mais celle-ci se répercutera avec le signe opposé sur la consommation future du prochain trimestre dans une proportion comparable, ce qui tend à ramener les deux séries vers leur point d’équilibre qui est représenté par la relation long-terme.

Les approches historiques pour appréhender ce type de relation sont les approches d’Engle et Granger13 ou Johannsen14, ainsi que les modèles dits Autoregressive Distributed Lag (ARDL). Tous ces modèles capturent à la fois les relations de long-terme ainsi que les déviations par rapport à ces équilibres via des modèles de retour à la moyenne et de correction d’erreur.

 

Choix des variables

Dans un premier temps les variables explicatives seront choisies, parmi l’ensemble des variables transformées, grâce à des études de corrélations simples. Le choix des variables explicatives peut aussi être éclairé par l’expertise métier, des approches systématiques de classification (comme une analyse en composantes principales15) ou encore leur significativité dans les méthodes d’apprentissage automatique (on conserve alors les variables mises en exergue par la méthode mais en leur appliquant des modèles statistiques classiques).

Au contraire, certaines variables seront exclues a posteriori par les tests statistiques en étape (3). En particulier, un trop grand nombre de variables peut aboutir à du sur-calibrage (over-fitting) et des variables colinéaires à une instabilité des coefficients de la régression16.

 

Calibrage des paramètres

La méthode d’estimation des paramètres de la régression dépend des tests réalisés en étape (3). Ils seront estimés soit par l’estimateur des moindres carrés, soit par exemple par des estimateurs de Yule-Walker17 pour éviter les biais que fait peser l’existence d’autocorrélation des résidus dans les séries utilisées.
Les problèmes posés par la non–stationnarité concernent aussi l’inférence des paramètres du modèle estimé, pour laquelle les lois asymptotiques usuelles dérivées dans le cadre de séries stationnaires peuvent mener à des incohérences si utilisées telles quelles. Notamment, les p-values (voir plus bas) et les intervalles de confiances ne sont plus fiables dans le cadre des séries non-stationnaires ou de la co-intégration.


4. L’EVALUATION DES MODELES DONNE SA CREDIBILITE AUX TRAVAUX DE PROJECTION STATISTIQUE

Le pouvoir prédictif du modèle doit être vérifié par un ensemble de tests. Des tests statistiques ou des backtestings peuvent être conduits pour conforter le choix d’un modèle, bien qu’aucun ne soit éliminatoire quant au choix du modèle. Notons que l’exigence de vérification de ces tests est à pondérer par la qualité de la donnée disponible. La sensibilité du modèle à un choc des variables explicatives devra dans tous les cas être appréciée.

 

Tests statistiques

Le calcul de la significativité des variables (p-value) est important mais l’estimation des paramètres et le calcul des p-valeurs doivent être corrigés en cas de non-respect des hypothèses de base de la régression linéaire18 :

Stationnarité des séries temporelles19 (homogénéité dans le temps de leur distribution) : les résultats des régressions linéaires peuvent être instables dans le temps si les séries ne sont pas stationnaires, même en cas de bon R2. Dans ce cas, il est préférable de transformer les variables (étape (1)) ou de choisir un modèle en co-intégration (étape (2)).

Résidus homoscédastiques20 (variance constante dans le temps) et/ou plus généralement non auto-corrélés21 : en cas de non-respect, cela peut être révélateur d’une autre variable explicative non trouvée. Cela peut biaiser de manière importante les variances et les intervalles de confiance des coefficients. Il est donc nécessaire d’introduire des corrections sur les coefficients22 ou de modifier les estimateurs utilisés23.

Normalité des résidus24 : cette hypothèse de la régression linéaire est cependant rarement vérifiable sur de petits échantillons (propriété asymptotique) et n’est pas nécessaire à la convergence des estimateurs des paramètres.

 

Backtest (ou cross-validation, ou out-of-sample performance)

Si la profondeur historique l’y autorise, il est possible de mesurer l’écart entre la série historique réelle et le modèle calibré sur une période temporelle différente. En renouvelant l’exercice sur plusieurs sous-périodes, il est possible par ailleurs de vérifier la stabilité des coefficients de la régression. Une erreur moyenne équivalente entre la période testée et la période de calibrage est un bon indicateur que le modèle n’est pas sur-calibré (over-fitting).


5. DIFFICULTES

La modélisation de l’ensemble des agrégats financiers de la banque suppose la modélisation d’activités de natures diverses s’appuyant sur des modélisations statistiques hétérogènes. Dans ce contexte, l’équipe en charge du développement des modèles doit s’adapter à la réalité de chacun des segments d’activité. Il en résulte une panoplie de modèles statistiques à articuler sur une plateforme flexible permettant de les lier entre eux et aux sources de données (bases métier notamment) pour proposer des résultats directement exploitables par les équipes de la plateforme.

Quatre types de difficultés doivent être dépassées pour constituer une base de modèles suffisamment solide à intégrer à la plateforme :

– La difficulté à trouver des modèles statistiques prédictifs sur certains périmètres : l’ensemble des activités ne sont pas modélisables par une approche statistique et sont plus complexes à appréhender (commissions spécifiques, frais généraux, éléments exceptionnels etc). Par ailleurs, la plupart des modèles statistiques classiques peinent à capter les non-linéarités dans les comportements passés.

– L’imbrication d’effets distincts à modéliser en parallèle de la modélisation des activités : effets change, concentration des portefeuilles, etc. Les effets de contagion, de réputation et l’ensemble des feedback effects sont particulièrement complexes à capter.

– La difficulté à collecter des données de qualité faciles à mettre à jour après le premier exercice de modélisation : manque de profondeur des données, problématiques d’homogénéité etc.

– Les difficultés organisationnelles et d’outil.


6. CONCLUSION

Si les établissements bancaires disposent aujourd’hui d’équipes spécialistes de la modélisation quantitative reconnues, ces compétences se concentrent surtout dans les équipes Risques sur les problématiques de risque de crédit et de risque de marché. Pour la plupart des établissements, la modélisation prospective à partir de méthodes statistiques implique donc la constitution d’équipes spécialistes.

Les méthodes discutées plus haut apportent une vision d’ensemble des moyens statistiques dont disposent les équipes de planification pour construire des modèles de projection. La dimension humaine et la capacité à recruter des talents capables de construire des modèles complexes est au cœur des enjeux.

Le développement d’une approche tactique, via des outils agiles, permet dans un premier temps de constituer un premier support à la plateforme et de distinguer la construction des modèles de leur industrialisation dans les systèmes de la banque.


1 « L’émergence des plateformes intégrées de planification financière et de stress tests » Revue Banque 824, pp. xx-xx
2 Les modèles économétriques permettent la modélisation de variables économiques à partir de l’observation statistique de grandeurs pertinentes.
3 Les modèles économétriques permettent la modélisation de variables économiques à partir de l’observation statistique de grandeurs pertinentes.
4 Ceci peut être implémenté à l’aide d’un filtre de Kalman par exemple.
5 Ou plus généralement l’autocorrélation de la série, ce qui revient à introduire une variable endogène dans le modèle.
6 L’algorithme ARIMA-X12 est une méthode populaire d’ajustement de la saisonnalité développée par le Bureau du recensement des États-Unis. Cette méthode s’applique à des séries ayant une saisonnalité mensuelle ou trimestrielle. Elle est implémentée dans la plupart des logiciels de statistiques et est l’une des méthodes prônées par l’European Statistical System (ESS).
7 La procédure STL (“Seasonal and Trend decomposition using Loess”) est une méthode de décomposition d’une série temporelle en une composante saisonnière, une tendance et des résidus. A ce titre, c’est aussi une méthode d’ajustement de la saisonnalité qui peut être préférée dans certains cas à des méthodes du types ARIMA-X12 (notamment en cas de composante saisonnière fluctuante ou en présence d’observations aberrantes).
8 Plus généralement, cela peut être incorporé, avec la saisonnalité, dans une démarché de modélisation de type ARMA (Auto Regressive Moving Average), ARIMA (AutoRegressive Integrated Moving Average) ou SARIMA (Seasonal ARIMA).
9 Le caractère stationnaire (ou non) d’une série temporelle se rapporte à l’homogénéité de sa distribution statistique au cours du temps. Une propriété plus faible utilisée en pratique (stationnarité faible) est le fait d’avoir ses deux premiers moments (moyenne et variance) constants, ainsi qu’une fonction d’autocorrélation invariante par translation au cours du temps.
10 Ces méthodes font partie de ce que l’on appelle aujourd’hui le « Machine Learning » qui vise à tirer parti des données pour déterminer la forme du modèle à adopter, plutôt que de le spécifier en amont. Ces méthodes se fondent sur l’analyse statistique d’un grand nombre de données de natures variées.
11 Les forêts aléatoires sont une famille d’algorithmes d’apprentissage automatique qui se fondent sur des ensembles d’arbres de décision. L’intérêt de cette méthode est d’entrainer un ensemble d’arbres de décision sur des sous-ensembles de l’ensemble des données initiales et ainsi de limiter le problème de sur apprentissage. Ce type d’algorithme permet de faire de la classification (estimation de variables discrètes) mais aussi de la régression (estimation de variables continues).
12 Un modèle autorégressif est un modèle dans lequel une variable est expliquée par ses valeurs passées plutôt que par d’autres variables.
13 Co-Integration and Error Correction: Representation, Estimation, and Testing, Robert F. Engle and C. W. J. Granger, 1987).
14 Estimation and Hypothesis Testing of Cointegration Vectors in Gaussian Vector Autoregressive Models, Johansen, Søren, 1991.
15 L’analyse en composantes principales (ACP), est une méthode d’analyse de données, qui consiste à transformer des variables corrélées entre elles en nouvelles variables dé-corrélées les unes des autres à partir de leur caractéristiques mathématiques (décomposition orthogonale aux valeurs propres).
16 Les régressions Lasso ou Ridge permettent de régulariser le problème et de sélectionner les variables de plus d’intérêt en introduisant des termes de pénalité.
17 Les équations de Yule-Walker établissent une correspondance directe entre les paramètres du modèle et ses autocovariances. Elles sont utiles pour déterminer la fonction d’autocorrélation ou estimer les paramètres d’un modèle.
18 Quand les hypothèses qui fournissent les distributions asymptotiques ou les intervalles de confiance des estimateurs ne sont plus vérifiées, les intervalles de confiance peuvent quand même être calculés par simulation (bootstraping ou ré échantillonnage).
19 Les tests classiques à mener sont ceux de Dickey-Fuller (augmenté), Phillips-Perron ou Kwiatkowski-Phillips-Schmidt-Shin.
20 Tests de Breusch-Pagan et de Goldfeld et Quandt.
21 Tests de Durbin-Watson et de Breusch-Godfrey.
22 Transformation de Yule-Walker (Cochrane-Orcutt généralisé).
23 Correction de la matrice de covariance par l’estimateur de Newey-West.
24 Test de Shapiro-Wilk par exemple.

Blockchain Episode 2 – Blockchain et Finance

Le foisonnement de Projets de blockchain et l’engouement massif observés se sont traduits par des mouvements de capitaux massifs à destination d’un espace financier nouveau et parallèle, autour des crypto-actifs. Les ICO (Initial Coin Offering) en sont l’exemple le plus populaire.

Dans cet article, notre objectif est de poser les contours de ce nouveau marché, en définissant et catégorisant les cryptos-actifs d’un point de vue financier. Cette catégorisation nécessite de comprendre le lien entre les différents types de technologie et la finalité des tokens leur étant rattachés. En plus nous adresserons la problématique de la rationalisation des cours par une ébauche d’approche fondamentale. Cet exercice est rendu difficile par la jeunesse de la technologie, l’absence de cadre défini et stable, et les caractéristiques particulières de ces nouveaux actifs. Ces dernières compliquent l’application des théories financières actuelles associées aux classes d’actif que nous connaissons. Nous en présenterons néanmoins les enjeux de façon simplifiée, en prenant de nombreuses hypothèses contraignantes.

 

1. LES CONTOURS FINANCIERS D’UN NOUVEAU MONDE

Nous nommons souvent indifféremment tokens, crypto-monnaies et crypto-actifs, pour éviter les répétitions de style, dans la mesure où ces termes font référence dans les grandes lignes au même objet. Comment faudrait-il les définir en réalité, quelles en sont les différences au sens économique et financier ?

Nous choisirons ici d’utiliser le terme crypto-actif pour nommer de manière générale et non exclusive l’ensemble de ces nouveaux objets. En effet, ces derniers ne constituent pas un ensemble homogène. Si l’appellation crypto-monnaie appliquée au Bitcoin est déjà controversée sur les plans économique et politique, elle parait d’autant plus inappropriée dans le cadre des utility token. Ils correspondent en effet généralement à un droit d’usage bien précis (comme pourrait l’être un jeton de lavomatique), s’éloignant de la définition monétaire.

D’un point de vue général, un crypto-actif peut se définir comme le droit d’entrée et l’unité de compte exclusive d’un écosystème créé (un crypto-actif par projet).

Notre analyse se concentre sur les cryptos-monnayeurs, les chain-producers et les chain-users. Des crypto-actifs sont associés à la totalité de ces projets, dont les caractéristiques sont différentes. Nous excluons de cette partie les projets facilitateurs d’appropriation et les blockchain privées et permissives, puisque dans la majorité des cas ils ne sont pas associés à un crypto-actif1.

– Les crypto-monnayeurs ont une ambition quasiment uniquement monétaire (valeur transactionnelle et réserve de valeur) et reposent sur des crypto-monnaies (Bitcoin, Dash, Litecoin…).

– Les chain-producers sont également des blockchain auxquelles est associée une crypto-monnaie (Ethereum par exemple). De plus, elles constituent une infrastructure permettant à des utilisateurs (chain-users) de développer une application et son token associé. Les transactions de ce dernier seront effectuées et tracées via la blockchain mise en place par le blockchain producer. Les crypto-actifs associés à ces acteurs ont donc un usage hybride, puisqu’il est à la fois monétaire et utilitaire (développement d’applications).

– Les chain users correspondent à des projets d’application construits sur des blockchain existantes (à titre d’exemple application décentralisée de rencontre basée sur la blockchain Ethereum). Sur le plan financier, il convient de considérer d’une part les utility tokens qui composent la majorité des tokens. Les projets associés proposent un service ou un usage qui n’est accessible que par ce dernier. Ce dernier n’a pas pour objectif initial de constituer une monnaie à proprement parler (réserve de valeur ou un moyen d’échange généralisé), mais de constituer un moyen d’aligner les intérêts au sein d’un réseau et/ou de constituer la seule grandeur permettant d’accéder au service proposé. Les security tokens sont quant à eux très proches du fonctionnement des actions et ne changent rien aux mécanismes financiers classiques. L’objectif général de ce type de mécanisme est d’associer un actif à un token, et donc d’introduire cet actif dans la blockchain via ce même token. Cette opération lui permet de bénéficier de tous les avantages de la technologie (traçabilité, sécurité…) : on parle alors de tokenisation des actifs.

En synthèse et de façon très simplifiée, on pourrait comparer les crypto-actifs soit à une pièce de monnaie digitale d’un système monétaire parallèle (crypto-monnaies), soit à un jeton d’une forme particulière permettant d’accéder à un droit d’usage, comme actionner une station de lavage automobile (token) ou financier (dividendes).

Au sein de ces catégories, les crypto-actifs revêtent des réalités multiples, par la combinaison de différents paramètres. Selon Richard Olsen, fondateur de la plateforme d’échange Lykke, « il n’y aura pas des millions de tokens mais des millions de types de tokens » 2.

Dans ce contexte, un canevas de classification et d’analyse unique apparait essentiel sur les plans réglementaire, stratégique et financier. Nous proposons une grille de lecture, destinée à capter l’ensemble des projets, autour des critères d’usage, d’origine, d’offre, d’existence du crypto-actif, de technologie, de droits associés et de degré de centralisation.

 

Usage

Nous distinguons ici les crypto-actifs par l’objectif qu’ils poursuivent :

– Usage financier : les tokens représentent un actif financier. Il s’agit des security tokens.

– Usage utilitaire : le token est le moyen d’accéder à un service ou un produit bien spécifique (utility)

– Usage monétaire : le token est l’usage en lui-même du réseau (réserve de valeur et transactions)

– Usage hybride entre l’usage monétaire et la plateforme de développement (généralement associé aux chaines producers)

 

Origine

Il s’agit de l’identification des acteurs ayant le droit d’émettre le crypto-actif au sein de l’écosystème :

– Emetteur unique : c’est le cas pour la grande majorité des tokens utility. Les tokens sont créés une unique fois par l’entreprise puis mis en vente lors de la phase d’ICO.

– Groupes d’émetteurs : le cas d’un comité de nœuds émetteurs, dans le cas d’une blockchain permissive par exemple.

– Emission décentralisée : n’importe quelle personne du réseau participe au processus de création monétaire. C’est le cas pour le Bitcoin notamment avec le processus de minage, rémunérant le mineur pour son « travail ».

 

Offre

L’offre de crypto-actif correspond au nombre d’unités qui sera créé par le ou les participants agréés. On distingue :

– Offre fixe : le cas dans la majorité des ICOs, le « total suppy » est inscrit dans le white paper et auditable dans la blockchain.

– Offre en continue mais limitée : c’est le cas du bitcoin. Le nombre total de bitcoin est connu (21 millions) mais la création monétaire est progressive, par le minage.

– Offre illimitée : ce serait le cas pour la tokenisation d’un bien de consommation. Par exemple, si une salle de spectacle émettait des tokens représentant des places de concert, elles pourraient en émettre sans limite.

 

Existence

La notion d’existence couvre la durée de vie d’un actif, et se décompose selon les axes suivants :

– Utilisation unique : le crypto-actif, une fois utilisé, est détruit (brulé dans le jargon de la blockchain). Cela peut être le cas d’un actif digital représentant un ticket de spectacle par exemple.

– Multi-usage : il est brulé après un certain nombre d’utilisations. Nous classons dans cette catégorie les projets qui envisagent de détruire leurs actifs progressivement (par exemple, on détruit 25% des valeurs utilisés à la première utilisation, puis 10% à la seconde…).

– Permanent : le crypto-actif, une fois émis, n’a pas vocation à disparaitre. C’est le cas des principales crypto-monnaies. Notons cependant que certains experts considèrent que des bitcoins « disparaissent » lorsque son détendeur perd sa clé privée et donc son accès à ses crypto-monnaies.

 

Technologie

Il ne s’agit pas ici de décrire la capacité technique du projet ou de la blockchain sous-jacente, mais de comprendre sur quelle « couche » technologique le crypto-actif est construit. On distingue :

– dApps tokens : il s’agit d’un crypto-actif permettant d’accéder à une application, c’est la grande majorité des chains users et des security tokens. Il est implémenté sur le niveau applicatif reposant sur l’infrastructure d’une blockchain.

– Token de protocole non-natifs : ce type de token est implémenté au sein d’un protocole économique, lui-même reposant sur une infrastructure blockchain. Ce token est un composant intégral du protocole économique, et lui permet de fonctionner. Nous avons classé ces projets au sein de la catégorie des chain users.

– Token natifs : token implémenté au niveau du protocole même de la blockchain ; ils sont critiques pour le fonctionnement de la blockchain et font partie du mécanisme de consensus. Il s’agit principalement des crypto-monnaies pures et des chains producers.

 

Droits associés

Les droits associés au token diffèrent en fonction des utilisations. Il est nécessaire de distinguer :

– Vote/Propriété : droits souvent associés au token de type security

– Usage : droit lié à l’utilisation d’un service/du réseau.

– Travail : droit de contribuer au réseau. Il faut posséder cet actif pour contribuer au réseau, qui rémunère alors les participants en crypto-actif. L’exemple le plus simple est l’utilisation du Proof-of-stake : ce mécanisme de validation fonctionne sur le principe des comptes séquestres. Un utilisateur voulant participer au réseau place dans un compte séquestre un montant de crypto-monnaie qu’il ne pourra pas utiliser mais qui servira à calculer son poids dans l’algorithme de la validation.

– Hybride : lorsque les droits associés au crypto-actif sont multiples ; on citera par exemple le Dash, dont le mécanisme de validation nécessite des Dash, qui est également l’utilité principal et le droit d’utilisation du réseau. De même, Cardano et Ethereum, une fois sous Casper3, seront dans cette catégorie.

 

Décentralisation du modèle

La blockchain est souvent associé au concept de décentralisation, fidèle à la philosophie des pionniers et à la promesse d’horizontalité de la technologie. En réalité, les jeux d’acteurs à l’œuvre et la transformation économique en cours est plus complexe qu’un simple basculement de la centralisation vers la décentralisation. Les degrés de centralisation sont donc divers, y compris dans les initiatives dites de la « nouvelle économie ». On distingue les projets :

– Centralisés : pour utiliser le service d’une entreprise, le consommateur règle en token. Ainsi le fonctionnement est similaire à celui d’une entreprise traditionnelle, à l’exception qu’elle collecte son chiffre d’affaires en token et non en monnaie traditionnelle.

– Semi-centralisés : l’utilisation est soumise à quelques nœuds du réseau ; on peut penser notamment aux blockchains permissives ;

– Décentralisés : une fois le crypto-actif émis, il circule librement de pair à pair, sans intervention d’une entité centrale.

En intégrant ces paramètres sur une échelle de 0 à 3, on obtient la représentation ci-dessous, permettant notamment de comparer les crypto-actifs entre eux. Cela permet à l’entrepreneur de faire les choix financiers « token economy » en ligne avec ses objectifs stratégiques et aux investisseurs de caractériser leurs investissements. Cette classification est également clé pour envisager de rationaliser la valeur et le prix de ces différents nouveaux actifs. Nous avons représenté les quatre types de crypto-actifs identifiés dans la première partie : le Bitcoin, représentant les crypto-monnaies pures, l’Ethereum représentant les chain producers, un token utility standard, et un token security.

 

Canevas de classification des crypto-actifs

 

2. TENTATIVE DE RATIONALISATION DES COURS ET DE LA VALEUR

Dans ce contexte, notre objectif est d’apporter un raisonnement rationnel sur les crypto-actifs, de les classifier, de les comparer à des actifs traditionnels et de questionner les méthodes d’évaluation – certes imparfaites à ce stade – qui pourraient permettre de rationaliser les cours existants.

Dans son article et son ouvrage4, Chris Burniske reprend les travaux de Robert J. Greer What is an asset class anyway (qu’est-ce qu’une classe d’actif) et distingue trois catégories d’actifs : les actifs financiers (basés sur l’actualisation des cash-flow futurs comme les actions, les obligations et l’immobilier), les actifs consommables et transformables (commodités, métaux précieux), et les « store of value », non consommables et ne générant pas de cash-flow (métaux précieux, monnaies, œuvres d’art).

Dans la même logique, Damodoran5 distingue :

– Les monnaies : elles constituent des moyens d’échange, de stockage et font office d’unité de compte. Elles sont utilisées pour échanger des actifs, les cash-flow reçus de ceux-ci et peuvent constituer des réserves de valeur pour les investisseurs décidant de ne pas investir. Ne délivrant pas de cash-flow, elles ne peuvent pas être évaluées mais peuvent être valorisées relativement les unes par rapport aux autres. Si à court terme des mouvements de marché et les politiques monétaires peuvent influer sur ces prix, à long terme la valeur des monnaies avec l’acceptation la plus large et le plus grand pouvoir d’achat doit croitre par rapport aux autres.

– Les actifs financiers (actions, obligations, immobiliers, options) : ils donnent droit à des flux financiers futurs et peuvent être évalués sur cette base qu’ils soient établis contractuellement ou contingent à des paramètres (options). Les actifs financiers peuvent être classiquement évalués par l’actualisation de la séquence de cash-flow futurs. Ils peuvent également être évalués les uns par rapport aux autres en utilisant des métriques communes (par exemple pour les actions : Price Earning Ratio, Enterprise Value/EBITDA, Price to Book…). Une entreprise peut être considérée comme un actif et donc être évaluée en actualisant les cash-flow futurs. La valeur des actions est déduite par soustraction de la dette.

– Les commodités (blé, métaux précieux comme l’or…) : elles constituent essentiellement des ressources industrielles et dérivent leur valeur d’un besoin fondamental (énergie, nourriture…). Elles peuvent théoriquement être évaluées par la rencontre de l’offre et de la demande modélisées. Selon lui, elles sont globalement davantage valorisées, à travers les cycles, comparées à leur propre prix historique ou à ceux des autres commodités.

d. Les Collectibles : marché de l’art et de l’émotion. La valeur est guidée par l’esthétique et l’émotion, le degré de désirabilité et la rareté. Les œuvres sont donc généralement valorisées et ne délivrent pas de flux de trésorerie.

 

Les crypto-actifs peuvent-ils s’inscrire dans ces catégories?

À première vue, leur catégorisation n’est pas une évidence

Aux yeux de Melamed (chairman émérite du Chicago stock exchange), le Bitcoin va devenir une classe d’actif à part entière et régulée comme telle selon des règles propres, à l’image de l’or ou des actions6.

Dans un article du 24 octobre 2017 paru sur son blog, Aswath Damodoran explique au contraire que le Bitcoin ne constitue pas une nouvelle classe d’actifs de nature à remettre en cause les fondamentaux du risque, de l’investissement et de la gestion7. Le professeur de finance classifie le Bitcoin comme une monnaie – certes imparfaite – et non comme un actif, concluant qu’il ne peut par conséquent pas être « évaluée mais seulement « pricée ». Dans ce contexte, investir dans le Bitcoin n’aurait pas de sens et tout agent rationnel se limiterait à réaliser des opérations de trading.

Si le Bitcoin peut théoriquement répondre à la définition économique d’une monnaie (imparfaite), il n’a pas cours légal donc n’est pas réglementairement considéré comme une monnaie. Il est par ailleurs traité comme une commodité par le juge fédéral américain. Ce dernier permet en effet sa régulation par la US commodity Futures Trading Commission (CTFC) listant des contrats futurs8.

Sur le plan statistique, les crypto-actifs sont-ils corrélés (séparément ou de façon uniforme) à des actifs traditionnels ? Nous avons recherché des corrélations entre les principaux crypto-actifs (Bitcoin : BTC, Litecoin : LTC, Ripple : XRP et Ether : ETH) et les actifs traditionnels (indices boursiers comme l’Eurostoxx ou le CAC 40, Brent, or, euro, dollar, niveau des taux…)9. Les résultats démontrent l’absence de corrélation entre les crypto-actifs et les variables « classiques » : le Bitcoin semble par exemple évoluer sans aucun lien avec l’or, le pétrole, le dollar ou l’Eurostoxx. En revanche, on note une très forte corrélation entre les différents crypto-actifs même de nature différente : le Bitcoin, le Litecoin, l’Ether et le Ripple sont très corrélées entre eux. Cette homogénéité statistique entre ces valeurs et l’absence de corrélation entre ce groupe et les autres actifs amènent deux conclusions. La première est qu’ils pourraient à ce titre être considérés comme une classe d’actif à part. La seconde est que cette absence de corrélation est un argument de poids dans la constitution de la dimension réserve de valeur de ces nouvelles grandeurs car son absence de corrélation avec les autres variables immuniseraient un investissement des variations de l’économie mondiale. En revanche, si le Bitcoin ou l’Ethervenaient à être plus largement utilisés, ne pourrait-on pas penser que la corrélation de leurs cours aux paramètres économiques mondiaux aurait tendance à augmenter ? On peut également noter des corrélations différentes entre les crypto-actifs eux-mêmes ; le Bitcoin (BTC) semble notamment davantage corréler avec le Litecoin (LTC) qu’avec l’Ether (ETH) ou le Ripple (XRP).

 

Synthèse de l’analyse de corrélation réalisée10

 

Tentative de classification

Nous reprenons la distinction opérée préalablement entre crypto-monnaies et tokens.

 

Les crypto-monnaies

Prenons le cas du Bitcoin.

– Il présente des attributs monétaires : réserve de valeur, transactions et unité de compte. Comme nous l’avons vu, les crypto-monnaies pourraient prétendre, sous certaines hypothèses de l’angle de l’école autrichienne à l’appellation de monnaie imparfaite. La totalité ou presque des crypto-actifs possèdent une parité en Bitcoin ou en Ether, et la performance de nombreux token est toujours présentée en écart au dollar, au Bitcoin et à l’Ether. Ces derniers constitueraient en cela quasiment une forme de métrique de référence. D’un point de vue plus subjectif, il est intéressant de noter la perception en termes d’unité de compte qu’ont construit les membres de cette communauté blockchain. Pour eux, un Bitcoin représente une grandeur en soit, dont la parité en dollar semble parfois être relayée au second rang d’importance. A titre d’exemple, nombre de projets que nous rencontrons rémunèrent leurs stakeholders sur un montant fixe de Bitcoin, indépendamment de l’évolution du cours.

– Il possède des caractéristiques des commodités du fait de sa rareté programmée par le code ne pouvant être remise en cause.

– Cette rareté est très singulière puisque comme le démontre Chris Burniske, la trajectoire d’offre du Bitcoin, logarithmique et prédéterminée par le code s’éloigne drastiquement de l’offre de monnaie traditionnelle (l’évolution de la création monétaire en dollar est très erratique et ne répond pratiquement plus au critère de rareté).

– Il peut afficher également dans une certaine mesure des points communs avec les collectibles. Mais les crypto-actifs et plus particulièrement le Bitcoin comportent une fortement dimension subjective dépassant l’effet de mode du fait d’une forte dimension philosophique et politique. Ce phénomène fait du Bitcoin une forme de totem subjectif ; idée particulièrement présente au sein de la communauté Bitcoin et des Bitcoin gourous (individus ne jurant que par le Bitcoin).

In fine, le Bitcoin semble financièrement plus proche d’une monnaie, mais avec des caractéristiques singulières rencontrées dans d’autres classes d’actifs, le distinguant des monnaies traditionnelles.

Ce constat peut être généralisé à l’ensemble des crypto-monnaies pures mais pas aux crypto-monnaies des chain-producers (ex : Ether) qui combinent une fonction monétaire et un usage.

 

Etat des lieux des classes d’actif et des caractéristiques discriminantes

 

Les tokens des chain-users

Nous ne traitons pas des security tokens qui s’apparentent financièrement presque parfaitement à des actions.

Les utility token présentent un profil très proche d’un actif financier, à l’exception de la notion de la trajectoire d’offre connue à l’avance et programmée. La caractéristique du flux financier est également différente puisque dans le cas d’un utility token, il s’agit de la monétisation future d’un usage donné.

 

Etat des lieux des classes d’actif et des caractéristiques discriminantes


1 Il existe des exceptions : par exemple la plateforme Binance possède un token, tout comme la Blockchain permissive Ripple
2 “There won’t be millions of tokens. There will be millions kind of tokens », extrait de “The token handbook” de David Siegel, https://hackernoon.com/the-token-handbook-a80244a6aacb
3 Casper est le nom de la mise à jour du mécanisme de validation d’Ethereum. Le mécanisme ne nécessitera plus d’avoir de la puissance de calcul (Proof-of-Work) mais nécessitera uniquement d’avoir des ethers (Proof-of-Stake).
4 Cryptoassets The Innovation Investor’s Guide to Bitcoin and Beyond” Chris Burniske and Jack Tatar
5 The Bitcoin Boom: Asset, Currency, Commodity and Collectible, Aswath Damodaran.
6 Tomo Uetake, Hideyuki Sano, Interview: Bitcoin a new asset class, not a crypto-currency – CME’s Melamed. 7/11/2017. https://www.reuters.com/article/cme-group-bitcoin/interview-bitcoin-a-new-asset-class-not-a-crypto-currency-cmes-melamed-idINKBN1D7159
7 The Bitcoin Boom : Asset, Currency, Commodity and Collectible, Aswath Damodoran, le 24/10/2017. http://aswathdamodaran.blogspot.fr/2017/10/the-bitcoin-boom-asset-currency.html
8 Cryptocurrencies like Bitcoin are commodities, Federal Judge says. Here’s why that matters. David Mayer, 07/03/2018. http://fortune.com/2018/03/07/bitcoin-cftc-commodities-coin-drop-markets/
9 Analyses réalisées sur R studio des corrélations sur les rendements journaliers sur l’année 2017. Les données financières ont été extraites de Bloomberg pour les actifs traditionnels et Kaggle pour les crypto-actifs.
10 Matrice des correlations des rendements journaliers. Les cases colorées représentent une forte corrélation (positive, c’est-à-dire évoluant dans le même sens, ou négative – évoluant dans le sens contraire). Une case non colorée représente des actifs non corrélés entre eux. A titre d’exemple, le Bitcoin n’est corrélé à aucun actif du monde financier traditionnel.

Stress test Episode 1 – Pilotage bancaire : vers des plateformes de planification financière et de stress-test

Quatrième auteur :
Gael Chalvon Demersay

 

Les plateformes intégrées de planification financière et de stress test s’imposent comme une révolution des pratiques budgétaires et de gestion des risques. Elles permettent de construire des modèles de projection des résultats établis sur des méthodes statistiques, au même titre que les modèles de risques, permettant d’exploiter au mieux le flux croissant de données disponibles.

La planification financière et les tests de résistance (stress tests) sont deux composantes historiques de la gestion bancaire. La planification financière s’appuie traditionnellement sur des modèles simples déclinés sous la forme d’analyses de création de valeur et d’indicateurs de performance, et repose rarement sur des analyses statistiques. De même, la conduite de stress tests n’est pas un sujet nouveau pour les établissements bancaires français. Les premiers exercices de stress tests apparaissent dès les années 1990, en lien avec le développement de nouveaux outils de gestion du risque tels que la Value at Risk. Les stress tests, mesurant l’impact de scénarios sévères mais plausibles sur la profitabilité et la solvabilité des banques, sont alors menés ponctuellement sur des portefeuilles isolés. Le rôle des stress tests s’est ensuite vu renforcé par la mouvance réglementaire des années 2000 et les accords dits de Bâle II qui les désignent, au sein du Pilier 2, comme un outil de pilotage de la solvabilité des établissements. Depuis les crises financières de 2008 et souveraine de 2011, les régulateurs américains et européens se sont approprié cet outil pour attester à fréquence régulière de la solidité des établissements sous tutelle.

 

Des modèles de planification et de stress tests imparfaits

Les banques françaises sont donc rompues aux exercices de planification et de stress tests. Néanmoins, les modèles de planification et de stress tests dont disposent les banques présentent encore certaines faiblesses :

– ils reposent significativement sur du dire d’expert et des scénarios extrêmes mis à disposition par le régulateur ;
– ils n’ont pas tous le même degré de sophistication, ni le même niveau de granularité ;
– ils ont été développés de manière indépendante, répondant à différents impératifs réglementaires (ICAAP, ILAAP1, plan de résolution) ou internes (budget) et ne communiquent pas entre eux ;
– le déploiement d’un exercice de planification ou de stress test de bout en bout peut prendre un temps significatif et mobiliser de nombreuses ressources ;
– les équipes centrales disposent rarement de modèles suffisamment poussés pour leur permettre de challenger les remontées métiers.

 

Un enjeu stratégique

Aujourd’hui, l’enjeu n’est pas tant pour les établissements de mener des projections et des stress tests, que de constituer une intégration stratégique des stress tests dans leur dispositif de gestion des risques et de planification financière. Les banques doivent de manière cohérente exprimer une ambition stratégique, mener leurs projections budgétaires et gérer leurs risques. Les stress tests deviennent, au-delà d’un exercice de mise en conformité réglementaire, un outil de gestion des ressources rares (capital, liquidité) et de pilotage du RONE2 s’intégrant parfaitement dans une gestion optimisée du SREP3. La planification et les stress tests doivent permettre de valider des choix stratégiques et être un outil de communication avec les marchés. Patrick Sommelet, directeur financier délégué à la Société Générale précise ainsi que « l’un des facteurs endogènes les plus importants dans le développement de la plateforme a été la volonté de la direction générale de disposer d’outil permettant de réagir plus rapidement à des chocs d’environnements ».

Les plateformes de planification financière et de stress test, qui sont l’objet de cet article, sont une des réponses à cet enjeu. Elles ont pour but de réunir différents outils d’analyse et différentes ressources pour produire, dans une durée restreinte, les principaux indicateurs de profitabilité et de risque de la banque sur un horizon de trois à cinq ans (voir Schéma 1). Elles constituent ainsi une révolution dans la modélisation du résultat et des risques et s’inscrivent dans un contexte favorable d’émergence de nouvelles technologies et d’une nouvelle culture « data » (voir Schéma 2). Les facteurs clés de succès d’une plateforme de planification et de stress test sont :

– la constitution d’une bibliothèque de scénarios de stress ;
– des modèles robustes paramétrés dans des outils agiles ;
– une gouvernance claire instaurée par le Comité de direction des banques et impulsant une collaboration étroite entre les fonctions Finance et Risques ;
– une utilisation concrète ou insertion opérationnelle des modèles de stress test.

Nous proposons de revenir de manière détaillée sur chacun de ces facteurs.

 

Utilisations des plateformes de planification financières et de stress test (schéma 1)

 

L’utilisation de modèles quantitatifs assis sur des analyses statistiques (schéma 2)

 

1. LA CONSTITUTION D’UNE BIBLIOTHEQUE DE SCENARIOS COHERENTS

La constitution d’une bibliothèque de scénarios cohérents est le point de départ des exercices de modélisation. L’évaluation collégiale des banques (« peer review ») menée par l’Autorité bancaire européenne (EBA) en 2013 a mis en exergue d’importantes limites dans les stress tests menés par les institutions, parmi lesquelles des scénarios de stress insuffisamment pertinents et ne couvrant pas l’ensemble des risques. Le régulateur a notamment mis en évidence les difficultés des banques à modéliser les effets de contagion et de diversification entre risques, ce que confirme Marc Irubetagoyena, responsable du programme de planification financière et de stress test de BNP Paribas : « nous travaillons aujourd’hui à la modélisation des effets de contagion. Néanmoins, ces effets dominos reposent sur l’utilisation de probabilités conditionnelles dont le calibrage suppose l’accumulation d’un nombre significatif de données rendant l’exercice de longue haleine ». La plateforme de planification financière et de stress test participe à remédier à ces lacunes en simulant sous différents scénarios, des projections du compte de résultat et des risques des banques (voir Schéma 3). La première étape de ce processus consiste à se doter d’une bibliothèque de scénarios à sévérité croissante (central, adverse, passage en remédiation).

 

L’élaboration des scénarios

La construction de chaque scénario est fonction de la nature du stress appliqué. Il est d’usage de distinguer les stress tests historiques, ceux induisant une mise en défaut de l’établissement (ou reverse stress tests) et les analyses de sensibilité (« what if analysis »). Sous un stress historique, la banque établit une liste des crises passées (par exemple le Brexit, la crise des subprimes ou l’éclatement de la bulle internet du début des années 2000) et constitue des historiques de données sur ces périodes. Le reverse stress est un procédé différent où l’établissement part de l’identification des principaux facteurs de risque susceptibles de mettre en défaut la banque, desquels sont inférés des éléments déclencheurs de ces risques (drivers) et donc un scénario. L’analyse de sensibilité est un exercice au style plus libre, où le périmètre d’application du stress et son intensité sont décidés par l’établissement.

La définition des briques constituant chaque scénario est ensuite déterminante. Marc Irubetagoyena évoque « la taxonomie des scénarios » et rappelle « qu’il est essentiel, pour assurer l’homogénéité des scénarios, d’en définir des dimensions précises communes », parmi lesquelles :

– l’intensité du stress : les plateformes intégrées de planification financière et de stress test ont pour première vocation de communiquer une trajectoire du bilan et des métriques de la banque en scénario central, puis une ou plusieurs trajectoires stressées ;
– le périmètre considéré : une des avancées des plateformes intégrées est de pouvoir réaliser dans un temps réduit une projection et un stress de l’ensemble des activités de la banque. Cependant, la modélisation d’une activité particulière est toujours possible. L’EBA incite en ce sens les banques à conjuguer stress globaux et locaux ;
– l’horizon du stress : sur un stress couvrant l’ensemble des activités de la banque, l’horizon du stress sera généralement de trois à cinq ans. Néanmoins, l’horizon dépend du calcul considéré : les stress de liquidité ont généralement des horizons d’un mois à un an tandis que les stress liés à la solvabilité des établissements s’appliquent sur trois ans ou plus ;
– le type de scénario : stress macroéconomique lent ou plus rapide, stress idiosyncratique ou combiné ;
– la source des données utilisées : les plateformes intégrées cherchent à produire une projection objective, si bien que les données disposant d’une justification statistique sont privilégiées. Elles peuvent être complétées au besoin par du dire d’expert. Les données incluent les données macroéconomiques (croissance du PIB, taux de chômage, etc.), bancaires (taille du marché des crédits immobiliers, taux de rémunération des dépôts, etc.) et idiosyncratiques (propres à un établissement ou une activité).

La construction de scénarios cohérents implique par ailleurs la prise en compte de boucles de rétroaction entre les différentes typologies de risques (liquidité et crédit, crédit et marge d’intérêt par exemple) et combiner des effets macroéconomiques et des chocs sur des portefeuilles spécifiques.

D’un point de vue opérationnel, la définition des scénarios de stress s’inscrit dans les processus d’identification et d’évaluation des risques des banques. Les scénarios doivent ainsi inclure un stress des variables jouant sur le déclenchement d’événements de risques probables et intenses relevés dans le processus de cartographie des risques. Par exemple, si la banque identifie un risque de défaut sur ses contreparties établies en Turquie, le scénario de stress peut se traduire par une hausse des spreads corporate turcs ou une baisse du PIB turc couplée à une hausse du chômage. Les exercices de stress test et d’identification des risques sont de fait interdépendants. Les stress tests permettent également d’affiner l’appétit au risque des banques. Marc Irubetagoyena précise que « les stress tests permettent d’éprouver les seuils d’alerte ou limites de risque, entraînant parfois leurs recalibrages ».

 

Trois difficultés à surmonter

De notre expérience, trois difficultés doivent être surmontées pour rendre efficiente la construction de bibliothèques de scénarios de stress :

– la première difficulté réside dans la définition d’une probabilité d’occurrence de chaque scénario. S’il est important de disposer d’un nombre significatif de scénarios, il est aussi important de pouvoir déterminer un classement des quelques scénarios les plus probables afin d’estimer les impacts moyens attendus ;
– le deuxième obstacle réside dans la difficile industrialisation de la production des scénarios de stress. À ce titre, BNP Paribas a lancé un projet sur les générateurs de scénarios économiques, en coopération avec l’École Polytechnique, dont l’objectif est de constituer une base de modèles
– enfin, la définition des scénarios doit être approuvée par les plus hautes instances de la banque, afin d’apporter de la crédibilité à l’exercice.

 

2. LE DEVELOPPEMENT DES MODELES : UN PROJET COMPLEXE

Les modèles développés dans le cadre des plateformes intégrées sont principalement les modèles de projection statistique des volumes d’activité, de marge d’intérêt et de commissions, les banques disposant déjà de modèles de risques conçus dans le cadre de travaux comptables ou réglementaires. Ces nouveaux modèles de projection du produit net bancaire répondent au souhait du régulateur d’éprouver la robustesse des plans stratégique et financier. Selon Teresa Mora Grenier, directrice du contrôle de gestion chez Natixis : « Le régulateur encourage le développement de modèles quantitatifs s’appuyant sur des travaux statistiques permettant d’isoler les principaux drivers des modèles d’activité bancaires et de réaliser des stress tests à la demande ». Les équipes de la BCE se dotent d’ailleurs elles aussi de modèles calibrés sur les données transmises par les établissements, d’où la nécessité d’agir pour les banques.

Les travaux menés dans le cadre des modèles s’articulent autour des problématiques suivantes : définir le bon niveau de granularité ; définir des méthodes de projection et identifier les drivers ; procéder à des projections statistiques ; assurer l’articulation des différents modules de calcul.

 

Définir le bon niveau de granularité

La définition du niveau de granularité modélisé par les plateformes de planification et de stress test est une étape importante. Les lignes métiers souhaitent généralement réaliser des projections de niveau fin sur des sous-portefeuilles, tandis que les équipes centrales réalisent des projections « top-down » visant à donner une trajectoire globale du bilan et des performances de l’établissement. Ces deux objectifs complémentaires peuvent inciter les établissements à construire des modèles au niveau le plus fin, puis à procéder à une consolidation. La construction des modèles à un niveau trop granulaire complexifie néanmoins la construction, la maintenance et l’utilisation des outils.

Il s’agit donc de définir une granularité intermédiaire permettant une mise à jour des projections rapide, et constituée de modèles avancés et granulaires sur les métiers et les agrégats les plus critiques en termes de pilotage (par exemple les activités de marché, la marge nette d’intérêts, partie cyclique des commissions et coûts). Des discussions avec les métiers en amont des travaux statistiques permettent de valider le niveau de granularité et facilitent le processus de modélisation.

 

Définir des méthodes de projection et identifier les drivers

Les travaux de segmentation des activités et de définition du niveau de granularité permettent de construire des modèles de projection à partir de réalités business cohérentes. L’étape suivante consiste alors à projeter les volumes, puis la marge d’intérêt et les commissions sur ces segments. Les projections s’appuient sur des familles de modèles complémentaires incluant, pour la projection des volumes, des régressions statistiques, les modèles de réplication communiqués par l’ALM mais aussi des modèles analytiques plus simples (si une partie des coûts peut faire l’objet d’analyses plus poussées, les modules de bonus par exemple sont souvent purement analytiques).

Sur certains pans d’activité, la projection des volumes s’appuie sur des benchmarks ou des projections de marché externes complétant les modèles quantitatifs.

Pour d’autres activités, une modélisation de la taille globale du marché ajustée de l’ambition de conquête de la banque peut être adoptée, notamment sur les activités pour lesquelles la part de marché des différents acteurs est connue (conseil en fusions/acquisitions, ECM DCM etc.) ou pour les activités suivies par les organismes de statistiques nationaux (montant de production de crédit, pools de dépôts, etc.).

La projection « déterministe » des modèles doit être complétée d’ajustements managériaux. Ces derniers permettent de tenir compte d’inflexions dans la politique de prix ou de conquête commerciale, d’acquisitions ou d’évolutions imprévisibles de l’activité. Cette couche d’ajustements managériaux permet de tenir compte des remarques des métiers et facilite l’insertion de la plateforme.

Si ces méthodes sont complémentaires, il est primordial de conserver une unicité des modèles utilisés pour une métrique et un type d’activité donnés afin de conserver un bon niveau de comparabilité des résultats (modèles de projection de la marge nette d’intérêt (MNI) cohérent sur l’ensemble des métiers banque de détail par exemple).

 

Procéder à des projections statistiques

Les modèles de volume peuvent s’appuyer sur des méthodes statistiques reposant sur la corrélation historique des volumes projetés et des variables macroéconomiques communiquées par le scénario (modèles de régression et de classification multivariées, linéaires ou non-linéaires).

Lors de la calibration de ces modèles, un compromis est souvent à trouver entre facilité d’implémentation et d’appropriation par les métiers d’une part, et puissance prédictive et robustesse statistique d’autre part. La démarche à mettre en œuvre pour assurer la robustesse statistique du modèle consiste en une approche itérative en trois étapes : collecte et retraitement de la donnée ; détermination des variables explicatives et de l’expression du modèle ; et évaluation de sa performance.

Les transformations mathématiques des séries de données peuvent améliorer la qualité des modèles à tester. La pertinence de ces transformations doit être évaluée à l’aune de la représentativité business d’éléments dits exceptionnels et de la complétion de données manquantes.

Le choix de la forme des modèles statistiques est d’abord fonction de la qualité et de la profondeur des données récoltées. Par exemple, les données doivent être suffisamment profondes pour représenter différentes situations économiques (expansion, crise) et différents contextes de taux (taux bas par exemple). Ensuite, les modèles linéaires sont privilégiés pour leur appropriation plus aisée. Des régressions quantiles peuvent éventuellement être utilisées en situation de stress. Les méthodes d’apprentissage automatique permettent d’orienter le choix des variables, même si ces dernières méthodes ne sont généralement pas retenues in fine du fait de leur complexité et parfois du manque de profondeur d’historique disponible.

Afin d’être homologué par le régulateur et les équipes d’audit de modèles internes à la banque, le pouvoir prédictif des modèles doit ensuite être vérifié par un ensemble de tests. Notons que l’exigence de vérification de ces tests est à pondérer par la qualité de la donnée disponible et le jugement expert indispensable à la modélisation de certains postes de P&L – frais de gestion ou commission non financières par exemple. Les établissements doivent conserver les résultats de l’ensemble des tests réalisés car ils constituent un élément clé de l’audit des équipes des différents régulateurs.

 

Assurer l’articulation des différents modules de calcul

Une fois les modèles de volumes, de marge nette d’intérêt et de commissions développés, la plateforme intégrée de planification et de stress test doit assurer le lien entre les différents modules de calcul (P&L, risques, liquidité).

Assurer une cohérence des projections des volumes d’activité, des marges commerciales et des risques (coût du risque, créances douteuses, emplois pondérés) est un sujet historiquement complexe pour les établissements. En effet, les systèmes d’information sont généralement spécifiques à chaque métier et s’appuient sur des référentiels de données non harmonisés.

En cela, les plateformes intégrées de planification et de stress test constituent une véritable avancée. Pour assurer l’unicité des données utilisées par les plateformes, certaines banques ont par exemple lancé la construction de bases de données (« datawarehouse ») partagées par l’ALM, les Risques et la Finance qui viennent se déverser dans les différents modules de calcul de la plateforme. Une fois alimentées de données, les plateformes assurent la communication entre projection du bilan, des indicateurs de profitabilité et des emplois pondérés. À ce titre, la projection du bilan devient la pierre angulaire d’un système arborescent qui permet la projection des revenus (marge d’intérêt et commissions) et la production des métriques de risques et de liquidité sur la base d’encours communs. La croissance du bilan commercial permet en effet de faire croître les expositions au défaut (EAD) utilisées pour le calcul du coût du risque et des emplois pondérés. La projection du bilan commercial sert aussi de base à l’obtention du bilan de liquidité.

La projection du bilan s’interface donc avec les modules de calcul. Des boucles de rétroaction peuvent être également prises en compte. Les flux de passage en défaut calculés dans le module de calcul du coût du risque peuvent être réintégrés au bilan, puis pris en compte dans le cadre du calcul de la marge nette d’intérêt. La projection des générations de nouvelle production peut permettre le calcul de commissions sur nouvelles productions.

 

3. UNE GOUVERNANCE FORTE : UN FACTEUR CLE DE SUCCES

La mise en place d’une gouvernance claire est un élément clé du bon fonctionnement des plateformes intégrées de planification et de stress tests, comme l’a rappelé récemment l’EBA en publiant le 19 juillet dernier son rapport final sur les bonnes pratiques en matière de stress tests.

Le programme doit obtenir le soutien de la direction générale des établissements, responsable de sa mise en application et de sa performance. La gestion du projet (regard critique sur les scénarios retenus, les principales hypothèses de modélisation, échanges avec les métiers, etc.) peut être déléguée à des managers séniors en charge de rédiger des normes et des procédures documentant les travaux menés. Teresa Mora Grenier « insiste sur l’importance de co-construire ces modèles avec les opérationnels pour faciliter leur intégration dans le processus d’animation de la performance dès la genèse du projet ».

Pour assurer l’efficacité du programme, la communication doit être verticale, depuis le comité de direction jusqu’aux lignes métiers, mais également horizontale. Cette communication horizontale peut se traduire par une communication entre lignes métiers, qui permet par exemple d’assurer une homogénéité des modèles de projection retenus. La communication horizontale peut également se manifester à l’intérieur même d’une ligne métier par un renforcement des liens entre les équipes chargées de la finance, de la gestion du capital et de la liquidité lors de la conception des modèles ou de périodes de production.

 

Un choc culturel pour la fonction Finance

Rebattant les cartes d’un jeu où la planification est traditionnellement le domaine de la Finance et les stress tests des Risques, les plateformes intégrées de planification et de stress test constituent un choc culturel pour la fonction Finance. Les fonctions Risques sont en effet habituées à s’appuyer dans leurs analyses sur des modèles quantitatifs développés dans le cadre de Bâle III ou de la mise en application d’IFRS 9. Si la fonction Finance dispose généralement de modèles d’analyse des indicateurs de performance, la culture de la modélisation statistique y est souvent moins développée. Pourtant, les modèles PPNR4 développés aux États-Unis et les dernières recommandations de l’EBA sur la modélisation des commissions mettent en lumière la nécessité de développer des modèles économétriques de projection du produit net bancaire et des frais. En ce sens, les compétences quantitatives dont disposent les fonctions Risques peuvent venir soutenir la Finance.

 

Des équipes mixtes

La convergence entre la Finance et les Risques peut aussi se manifester, en matière d’organisation, par la mise en place d’équipes mixtes ou « joint-ventures » mêlant des profils issus des risques, de la gestion actif passif et du contrôle de gestion. Ces équipes sont chargées de faire le lien entre les différentes lignes métiers et la direction de l’établissement. La mise en place de ces nouvelles équipes hybrides ne se fait pas sans mal, comme le rappelle Marc Irubetagoyena : « Le rassemblement au sein d’une joint-venture de profils aux cultures différentes est un mal nécessaire. Il constitue une réunion d’expertises capable de traiter des enjeux complexes et d’attirer de nouveaux talents ». Constituer une équipe centrale en charge de la planification et des stress tests permet de gagner en efficacité opérationnelle en réduisant les délais de production (voir Schéma 3).

 

Un processus global d’identification des risques (schéma 3)

 

4. UTILISATION CONCRETE

La création d’une plateforme de planification financière et de stress tests n’est pas un exercice « hors sol » de modélisation mais constitue avant tout une refonte des processus, et de l’organisation de la banque. Patrick Sommelet insiste : « dès cette année, le processus budgétaire a été amendé, et le modèle y a été intégré. La gouvernance évolue et le poids des modèles quantitatifs dans les exercices de planification ne va cesser de croître ». Dans ce contexte, nous identifions les fonctions principales de ces plateformes.

Répondre à une demande spécifique de la direction générale ou du régulateur. Les plateformes intégrées de planification financière et de stress test révolutionnent les pratiques budgétaires en réduisant le « dire d’expert » et les temps de production. Elles permettent de constituer des trajectoires financières assises sur les variables économiques et des modèles. Ceci répond aux attentes des régulateurs américain et européen exprimées respectivement dans le cadre du CCAR5 et des stress tests EBA. Elles permettent également de répondre rapidement aux demandes de simulation de la direction générale, en produisant des analyses traçables et itératives.

Faciliter la couverture des exigences de stress testing et de simulation ad hoc. Les plateformes intégrées sont des outils agiles permettant la réalisation de différents stress tests (budgétaire, réglementaire) et travaux réglementaires (ICAAP, ILAAP, travaux liés aux plans de résolution). En 2018, le volet commissions des stress EBA a par exemple été réalisé en totalité via des versions tactiques des plateformes par deux grandes banques de la place. Un autre établissement français a utilisé la plateforme intégrée dans ses travaux en lien avec le Brexit. Ces outils centraux limitent les dépendances dans les processus de production et les coûts de production des reportings. Les plateformes s’intègrent donc dans cette revue des processus au point d’être devenu l’un des quatre piliers du SREP.

Renforcer le pilotage stratégique et financier. Les plateformes de planification financière et de stress test réalignent la feuille de route stratégique, la planification du capital ainsi que son allocation et le plan de financement, en cohérence avec l’appétit pour le risque de l’entreprise. Elles permettent un pilotage fin, cohérent avec le cycle économique, et offrent des possibilités de simulation ad hoc combinant des impacts variés (effets croisés : volumes de NPL et MNI, remboursements anticipés et commissions…). Elles permettent enfin d’appréhender les enjeux de recalibrage du business mix en ligne pour maximiser le RONE, avec une capacité accrue d’identification de leviers de croissance et d’optimisation.

Démontrer la valeur ajoutée des modèles de planification. Le régulateur insiste fortement sur la capacité des établissements à démontrer l’utilisation et la valeur ajoutée de leurs modèles de planification, utilisant notamment les notions d’insertion opérationnelle ou usages (use tests). Dans cette perspective, la formation des équipes à ces nouveaux outils est un bon indicateur. L’utilisation, en première approche, de ces nouveaux outils comme challenger models de méthodes de planification historiques peut être également un premier pas vers l’usage cible des plateformes.

 

5. UNE ETAPE DE PLUS DANS LE PROCESSUS D’INTEGRATION DE LA DONNEE À LA PRISE DE DECISION

La naissance des plateformes intégrées de planification financière et de stress test marque une étape importante sur le chemin de l’évolution des pratiques budgétaires et de gestion des risques. Les modèles de projection des résultats sont désormais établis sur des méthodes statistiques, au même titre que les modèles de risques, permettant d’exploiter au mieux le flux croissant de données. Les établissements ont pris conscience de la valeur ajoutée que peut constituer l’exploitation de données fiables et toujours plus abondantes. Cet élan, doit permettre de soutenir les projets permettant d’enrichir et de fiabiliser la donnée jusqu’à automatiser les chaines d’analyses dès aujourd’hui car ces programmes prennent du temps.

Les modèles de résultats et de risques sont également interconnectés et appellent de nouvelles synergies entre les équipes Finance et Risques (voir Schéma 4). Néanmoins, les défis restent encore nombreux. On peut citer :

– la modélisation et l’allocation analytique des charges d’exploitation ;
– la connexion de la démarche budgétaire des banques aux processus de vente et aux outils marketing. L’intégration de la demande est encore loin d’être gérée par les outils.

Le chemin de l’évolution des plateformes est donc encore semé d’embûches.

 

Les plateformes de planification financière et de stress test (schéma 4)

 

Article disponible sur www.revue-banque.fr et le numéro d’ocobre de Revue Banque.


1 Internal Capital Adequacy Assessment Process ; Internal Liquidity Adequacy Assessment Process.
2 Return on Notional Equity.
3 Supervisory Review and Evaluation Process.
4 Pre-Provision Net Revenue.
5 Comprehensive Capital Analysis and Review.

Blockchain Episode 1 – La blockchain implique une restructuration de la vie économique

Troisième auteur :
Clément Téqui

 

La technologie blockchain a des impacts multiples sur la structuration et l’organisation de la vie économique. Nous pouvons apprécier et appréhender son impact à travers une analogie entre blockchain et Internet. L’apparition d’Internet a permis à un certain nombre d’acteurs nouveaux d’émerger, comme les GAFA1, dont le modèle économique repose sur une utilisation pleine et entière d’Internet, faisant d’eux des pure players. Néanmoins, on ne peut résumer l’impact d’Internet à leur apparition : chaque entreprise de l’économie traditionnelle a pu s’appuyer sur Internet pour créer de nouveaux usages (commandes en ligne par exemple) ou améliorer les processus internes (réduction du coût de la communication grâce aux vidéoconférences par exemple).

La technologie blockchain peut donc avoir un impact sur la vie économique avec la même ampleur qu’Internet : d’une part, des pure players, dont le modèle économique s’appuie sur une utilisation pleine et entière de la technologie vont émerger. D’autre part, les entreprises traditionnelles vont pouvoir développer de nouveaux usages et améliorer les processus internes.

L’écosystème se structure autour deux axes : le niveau de décentralisation et la complexité des cas d’usage.

– L’axe horizontal mesure le niveau de décentralisation de l’organisation qui permet globalement de distinguer les acteurs centralisés des acteurs plutôt décentralisés. Les acteurs les plus centralisés sont ceux utilisant des blockchain permissives ou privées ainsi que ceux gravitant autour de l’écosystème blockchain sans en utiliser la technologie. Les acteurs les plus décentralisés sont ceux utilisant des blockchain publiques2.

– L’axe vertical mesure la complexité du cas d’usage du produit proposé, qui permet de distinguer les acteurs en amont de la chaîne de valeur de l’écosystème et ceux en aval. Le point de rupture entre l’amont et l’aval de l’écosystème étant l’usage ou non de Smart Contract.

Le croisement de ces deux axes nous permet de cartographier quatre familles d’acteurs :

– Les facilitateurs d’appropriations ;
– Les process winners ;
– Les crypto-monnayeurs ou blockchain 1.0 ;
– Les dapps ou blockchain 2.0.

 

Cartographie des acteurs dans leur écosystème

 

1. LES FACILITATEURS D’APPROPRIATION

De façon générale, ces acteurs peuvent être comparés aux vendeurs de pelle lors de la ruée vers l’or.

La catégorie des facilitateurs d’appropriation rassemble les acteurs qui proposent un service ou un produit en lien avec l’écosystème de la blockchain. Ces acteurs sont donc peu décentralisés, puisque reposant sur une organisation traditionnelle, et situés en amont de la chaîne de valeur selon le critère de différenciation défini précédemment. Ils sont considérés comme des facilitateurs d’appropriation et de pénétration de la technologie puisqu’ils participent directement au développement et à la sécurisation de l’écosystème. Dans cette catégorie, nous distinguons quatre sous-catégories d’acteurs : les accompagnateurs, les échangeurs, les régulateurs et les coffres-forts.

 

2. LES PROCESS WINNERS

Les process winners sont les acteurs qui considèrent la technologie blockchain comme un moyen d’améliorer un certain nombre de processus internes des entreprises de l’économie traditionnelle en y apportant de l’automaticité, de la transparence et de la sécurité. Cela permet d’actionner deux leviers de croissance : celui de l’augmentation des revenus et celui de la réduction des coûts. Parmi ces initiatives, certaines sont menées par des acteurs de l’économie traditionnelle qui veulent s’approprier la technologie blockchain via de l’investissement en recherche et développement, des partenariats ou des acquisitions ; d’autres le sont par des startups appartenant à l’écosystème blockchain.

 

3. LES DAPPS ET LES BLOCKCHAINS NOUVELLE GENERATION

La catégorie des crypto-aps’ est un ensemble plus vaste et plus complexe que celle des crypto-monnayeurs. En effet, elle rassemble les acteurs en aval de la chaîne de valeur, dont les usages dépassent largement le purement monétaire, et porte en germe un changement radical de paradigme économique. Comme nous l’expliquions précédemment, la technologie blockchain a ouvert la voie à la token economics où une entreprise propose un service et une crypto-monnaie permettant d’acheter ce service. Elle devient, par conséquent, à la fois une entreprise de l’économie traditionnelle dont le modèle économique repose sur le bien ou service vendu et en même temps une banque centrale qui émet sa propre monnaie.

Cette topographie distinguera donc d’une part les acteurs fournissant une infrastructure aux crypto-aps’ (les ChainProducers) et ceux utilisant cette infrastructure pour développer des applications et des usages (les ChainUsers).

 

4. LES CRYPTO-MONNAYEURS OU LES BLOCKCHAINS 1.0

Les crypto-monnayeurs ou les blockchains 1.0 sont les acteurs qui ont développé des protocoles décentralisés et s’appuyant sur les couches technologiques les plus en amont de la chaîne de valeur et d’innovation de la technologie blockchain, à savoir les couches ledger (registres) et de transaction. Elles permettent de proposer un usage de la technologie blockchain uniquement centré autour de la monnaie. Les crypto-monnayeurs regroupent l’ensemble des acteurs ayant développé des crypto-monnaies concurrençant plus ou moins directement le Bitcoin, chef de file de cette catégorie. Notons que les projets appartenant aux crypto-monnayeurs sont ceux qui, chronologiquement, sont apparus les premiers3.

 

Pour cartographier la catégorie des crypto-monnayeurs, deux axes d’analyse sont proposés.

Le premier axe, celui des horizontaux, est la vitesse de transaction : plus une monnaie propose une vitesse de transaction élevée, plus elle peut se substituer aux monnaies fiduciaires qui, en pratique, ont une vitesse de transaction nulle. En effet, il est difficile d’imaginer une adoption massive des crypto-monnaies comme moyen de paiement pour les micro-transactions, s’il est nécessaire d’attendre 10 minutes pour que la validation soit effective, comme c’est le cas actuellement pour le Bitcoin. Pour améliorer la vitesse de transactions d’une crypto-monnaie, plusieurs leviers sont possibles :

– réduire le temps de validation des blocs ;
– augmenter la taille des blocs et donc le nombre de transactions pouvant y être enregistrées ;
– alléger/modifier le protocole de validation.

 

Dans ce qui suit, le volume de transactions – ou scalabilité – fera référence à un nombre de transactions par seconde4 que l’on pourra comparer aux moyens de paiement actuels (comme Visa qui peut supporter plusieurs milliers de transactions par seconde). Avant de détailler les solutions permettant d’améliorer la rapidité des transactions, rappelons qu’avec la manière dont ont été construites les crypto-monnaies, il existe un compromis presque inevitablentre vitesse et sécurité. Si l’on prend le cas du Bitcoin, sa sécurité provient du fait que son algorithme de consensus, le proof-of-work, permet, comme nous l’expliquions précédemment, d’avoir une sécurité qui tend vers l’infini avec une altération des données historiques impossible. Cette sécurité est garantie par le temps de validation choisi par son créateur, de l’ordre de 10 minutes. Si l’on réduit ce temps de validation la sécurité en patirait puisqu’il serait plus facile de modifier l’historique des transactions. Pour dépasser ce compromis, des projets tentent d’imaginer de nouveaux moyens de validation.

 

Le deuxième axe, celui des verticaux, est le niveau de confidentialité : une monnaie dont le niveau de confidentialité est total n’aura pas nécessairement le même usage qu’une monnaie avec un niveau de confidentialité moindre. Les monnaies ayant un niveau de confidentialité moindre, ou pseudo-anonyme, sont des monnaies où, à chaque wallet, est associé un montant connu de tous sans qu’on connaisse l’identité de celui qui le détient. C’est le cas, par exemple, du Bitcoin. Ce type de monnaie propose un usage similaire à celui de la gestion d’un compte en banque où on échange des sommes d’argent via des virements5.

Les monnaies ayant un niveau de confidentialité important, ou parfaitement anonyme, sont des monnaies où l’on ne connaît ni le montant associé à chaque wallet ni l’identité de celui qui détient le wallet. Ce type de monnaie propose un usage similaire à celui qu’on peut avoir de l’argent liquide et s’applique ainsi plutôt au micropaiement. Comme le cas d’usage de ces monnaies est centré autour de la notion d’argent liquide et d’anonymat, il n’est pas à exclure qu’elles puissent favoriser certaines transactions illégales comme l’achat d’armes ou de drogues.

 

Ces deux axes font apparaître trois catégories que nous détaillerons dans ce qui suit :

Bitcoin and its fellows(Le Bitcoin et ses dérivés) ;
– DarkWeb money(les solutions confidentielles) ;
– High Tech’ money.(les solutions de dernière génération)

Bitcoin and its fellows

Le Bitcoin étant la première crypto-monnaie, sa technologie présente des limites que certains projets ont cherché à dépasser. Le code source du Bitcoin est open source, c’est-à-dire complètement libre d’accès en ligne. Les projets de cette catégorie se sont contentés de repartir du code source et de modifier des paramètres, à la marge. À cet égard, on peut parler de code is business puisque le code est adapté pour répondre à un besoin du marché. Les principales modifications concernent le temps de validation et la taille des blocs. Parmi les plus connues, citons le Litecoin, le Bitcoin Cash, et le Dogecoin.

Le temps de validation d’un bloc pour le protocole Bitcoin est de 10 minutes environ. Si l’on rapporte ce temps de validation par bloc en équivalent transactions, on estime que le protocole Bitcoin permet d’en valider 3 par seconde environ, contre 2 500 pour Visa. Pour obtenir une validation plus rapide des transactions, le protocole Litecoin, qui s’appuie sur le protocole Bitcoin, propose une validation de bloc toutes les 2 minutes 30 environ6.

Le protocole DogeCoin propose de son côté une validation de blocs toutes les minutes environ. L’objectif du DogeCoin est ainsi de devenir la monnaie de pourboires d’Internet : un utilisateur ayant bien aimé une vidéo ou un tweet pourrait laisser quelques DogeCoins, dont la valeur est avant tout symbolique7. Le projet Dogecoin est à l’origine une plaisanterie dont le but est de montrer la facilité avec laquelle on peut créer une crypto-monnaie à partir du code source Bitcoin. Néanmoins, cette plaisanterie a reçu un accueil favorable de la communauté blockchain.

La taille maximale d’un bloc pouvant être validé par le protocole Bitcoin a été fixée par ses créateurs à 1 Mo. Cette limite peut avoir comme conséquence de saturer le réseau, ce qui entraîne un allongement du temps de transaction. L’augmentation de la taille maximale d’un bloc a longtemps fait l’objet de discussions entre les mineurs du réseau. Aucune position ne permettant de concilier les deux clans, un fork définitif a eu lieu au début du mois d’août 2017. Il a donné lieu à la création du protocole Bitcoin Cash qui permet de porter la taille maximale d’un bloc pouvant être validé à 8 Mo. Il est intéressant de noter que, jusqu’à la date de leur séparation (1er août 2017), les deux protocoles possédaient le même historique de transactions8.

 

Les monnaies anonymes

Les monnaies complètement anonymes répondent à un besoin non adressé jusqu’à présent par les crypto-monnaies : le cash digital9. Elles s’inspirent également du code source du Bitcoin, mais changent plus radicalement sa philosophie en incluant cette notion de pur anonymat. Parmi les plus connues, citons le Dash, le Zcash, le Monero, et le Verge. Si les niveaux de confidentialité proposés sont très adaptés aux transactions illégales, et notamment du dark web, en réalité ce besoin dépasse largement ce cadre.

 

Le protocole Bitcoin assure un certain niveau de confidentialité à ses utilisateurs grâce à l’existence des clés privées et publiques. Il a néanmoins été pensé pour que l’on puisse accéder au registre des transactions et connaître, via la clé publique, l’origine des fonds transférés, le montant et le destinataire. C’est le principe même du protocole Bitcoin : être un registre distribué dont l’ensemble des transactions passées est consultable à n’importe quel moment et par n’importe qui.

Le protocole Dash a pour ambition d’être une monnaie équivalente au cash mais digitalisée10. Pour cela, son créateur, Evan Duffield, a imaginé deux technologies venant se superposer au protocole Bictoin : l’InstantSend qui propose une transaction de manière immédiate et PrivateSend qui propose aux utilisateurs qui le souhaitent une confidentialité totale quant aux transactions11.

Le protocole ZCash propose, grâce au concept de la preuve sans connaissance (zero knowledge proof), une monnaie où l’anonymat des transactions est total. Ainsi, en utilisant le Zcash, un utilisateur peut choisir de cacher l’origine, le montant et le destinataire de la transaction. Néanmoins, grâce au concept de preuve sans connaissance, le protocole ZCash permet de garantir que l’événement (la transaction) a bien eu lieu sans fournir d’informations à son sujet (origine, destination, montant12).

Le protocole ByteCoin repose sur la technologie CryptoNote. Il n‘est donc pas un fork du Bitcoin mais créée une blockchain nouvelle. L’intérêt de la technologie CrytpoNote est de proposer un niveau de confidentialité élevé ainsi qu’un temps de transaction d’environ 2 minutes13. Notons que de nombreuses autres monnaies sont nées d’un fork du ByteCoin, comme le Monero(qui modifie des caractéristiques de l’augmentation de la vitesse du minage, et utilise une technique dite one time pour les adresses publiques ce qui rend impossible de tracer le solde d’un compte14).

Le Verge propose « une protection de notre intimité digitale » grâce à l’utilisation de réseaux multiples axés sur l’anonymat, comme Tor et i2p où les adresses IP des utilisateurs sont complètement cachées et par, conséquent, les transactions sont intraçables.

 

Les monnaies high-tech

Les monnaies High Tech’ visent à dépasser assez largement le protocole du Bitcoin ; elles proposent des usages nouveaux des crypto-monnaies tout en apportant des réponses technologiques aux principales critiques et/ou limites du BItcoin, à savoir :

– son manque de scalabilité ;
– ses frais de transaction qui peuvent s’avérer élevés ;
– le problème de la consommation d’énergie liée au proof-of-work.

Parmi ces initiatives, citons les plus connues : le Iota, le Nano et le OmiseGO.

 

Le Iota est une monnaie qui diffère totalement, sur un plan technologique, du protocole Bitcoin. En effet, elle a pour objectif de se passer du principe de bloc, pourtant fondamental pour une blockchain, au profit d’une dislocation des nœuds de validation. C’est une monnaie qui s’applique aux objets connectés. L’idée est de mettre à disposition la petite puissance de calcul, embarquée dans chaque objet connecté, pour valider les transactions, confondant ainsi la notion de mineur et d’utilisateur du réseau. Dès lors, il n’est plus nécessaire de concaténer l’ensemble des transactions dans un bloc pour les valider. Le nom de ce mécanisme est le Tangle qui s’appuie sur un Directed Acyclic Graph (graphe orienté acyclique) pour enregistrer les transactions15.

Le Nano, anciennement connu sous le nom de Railblock, est assimilable au Iota dans le sens où le concept de mineur et d’utilisateur est plus ou moins confondu16, mais il ne s’applique pas aux objets connectés. Son cas d’usage est concentré sur une efficacité maximale autour des transactions : elles se valident en 2 secondes, sans frais de transaction et avec une scalabilité présentée comme infinie17.

Le OmiseGO est une monnaie particulièrequi s’appuie, elle, sur la blockchain Ethereum pour être déployée et pourrait être, à ce titre, assimilée à une crypto-aps’ (cf. ci-dessous). Nous faisons cependant le choix de la classer dans la catégorie des crypto-monnaies, puisque son cas d’usage est essentiellement centré sur les paiements à partir des applications ou sites Internet. OmiseGO propose une technologie de stockage et de transfert d’argent en temps réel qui est agnostique aux juridictions, aux organisations et au type de monnaie traitée – monnaie traditionnelle et crypto-monnaie confondues. Le token OmiseGO n’est pas, à la différence des monnaies citées précédemment, un moyen d’échange, mais il est utilisé pour valider des transactions et permet d’obtenir des remises et/ou des récompenses lorsqu’on passe par lui pour effectuer un règlement.

 

5. CONCLUSION

En conlusion, la catégorie des crypto-monnayeurs rassemble les acteurs ayant développé des crypto-monnaies à usage purement monétaire. Ils ont souvent créé des initiatives dérivant légèrement du code source du protocole Bitcoin en y incorporant de légères modifications sans changer fondamentalement le produit proposé même si certaines crypto-monnaies ont été créées avec des changements plus importants dans les protocoles comme le ZCash ou le Bytecoin.

Résultat : on compte aujourd’hui plus d’une trentaine de crypto-monnaies à usage purement monétaire. Nous avons donc fait le choix de limiter les exemples à celles ayant les capitalisations boursières les plus importantes (en fin d’année 2017). Comme nous l’expliquions précédemment, il n’est pas à exclure que l’émergence des crypto-monnaies ait fait naître, presque ex nihilo, un grand nombre de monnaies concurrentes dont la viabilité à long terme est faible. Elles fournissent néanmoins un exemple de la théorie des monnaies concurrentes de Hayek : la sélection des bonnes et de mauvaises monnaies sera faite, sur le long terme, par les choix des consommateurs.

Les crypto-monnaies évoquées précédemment se répartissent donc de la manière indiquée sur le graphique suivant. Notons que la taille des bulles représente la capitalisation boursière, calculée comme le nombre de monnaies en circulation multiplié par le prix unitaire. Nous avons retenu les données au 31 décembre 2017. Les transactions sont exprimées en transactions par seconde avec une échelle logarithmique.

 

Répartition des monnaies selon leur niveau de confidentialité et leur vitesse de transaction

 


1 Google, Amazon, Facebook et Apple.
2 En réalité, tous les acteurs utilisant des blockchain publiques n’ont pas le même niveau de décentralisation. En effet, le niveau de décentralisation d’une entreprise dans l’écosystème blockchain se définit essentiellement par le rôle que joue le token dans son modèle économique. Un niveau de décentralisation élevée implique un token garantissant un alignement d’intérêts maximisé au sein de l’écosystème créé, en l’absence d’intervention directe de tiers centralisé. A contrario, un niveau de décentralisation plus faible s’explique par l’intervention d’un acteur centralisé dans la circulation des crypto-actifs. Contrairement aux idées reçues, le lien direct entre nouveaux acteurs blockchain et décentralisation est loin d’être automatique.
3 Le projet IOTA est apparu plus tardivement que les autres mais propose un cas d’usage particulier de sa crypto-monnaie puisque uniquement centré sur les objets connectés.
4 La notion du nombre de transactions par seconde ne doit pas être confondue avec celle d’immédiateté des transactions.
5 Cet usage pourrait être utilisé par des entreprises commerciales s’effectuant des virements réguliers de montants importants nécessitant donc une sécurité maximale.
6 https://litecoin.org/fr/
7 http://dogecoin.com/. Le DogeCoin est représenté par une tête de Shiba, très populaire dans les communautés Internet.
8 https://www.bitcoincash.org/
9 Cette affirmation peut paraître contradictoire puisque le titre du whitepaper du Bitcoin est, rappelons-le, A Peer-to-Peer Electronic Cash System. Cependant, pour les raisons détaillées précédemment, nous considérons que l’usage du Bitcoin ne peut être considéré comme similaire à du cash digital.
10 https://github.com/dashpay/dash/wiki/Whitepaper
11 https://www.dash.org/
12 https://www.google.fr/search?q=Zcash&oq=Zcash&aqs=chrome..69i57j0l5.1493j0j7&sourceid=chrome&ie=UTF-8
13 https://bytecoin.org/
14 http://whitepaperdatabase.com/monero-xmr-whitepaper/
15 Ce concept est très technique et demande un niveau de maîtrise en mathématiques important pour pouvoir être appréhendé pleinement. Il a été formalisé par Sergei Popov, un mathématicien de renom de l’université Unicamp, au Brésil, membre actif de la communauté des crypto-monnaies. La formalisation est accessible via le lien suivant :
https://iota.org/IOTA_Whitepaper.pdf
16 Le Iota repose sur le Tangle pour ce mécanisme alors que le Nano repose sur le mécanisme dit block lattice ou « bloc tressé », qui reprend néanmoins le principe d’une implémentation d’un graphe orienté acyclique.
17 https://nano.org/en/whitepaper

Football Episode 3 – Transferts du foot : combien vaut un joueur ?

Deuxième auteur :
Franck Bancel (Academic Advisor)

 

Les montants rendus publics à l’occasion des récents transferts de joueurs (Neymar, Mbappé) ont très largement occupé l’espace médiatique des derniers mois. L’importance des sommes affectées aux transferts pose aux financiers la question de leur évaluation. Comment justifier de tels montants ? Répondent-ils à une forme de rationalité économique ou ne sont-ils que l’expression de « l’exubérance irrationnelle » chère à Alan Greenspan et à l’oeuvre cette fois-ci sur le marché des transferts des joueurs ?

Rappelons tout d’abord les facteurs qui conditionnent la valeur financière d’un transfert. En premier lieu, les clubs évaluent le potentiel physique (résistance, vitesse, etc.) et technique (passes décisives, tacles, etc.) d’un joueur. Par ailleurs, certains postes comme les avant-centres sont très recherchés et vaudront donc plus cher, à niveau de performance ou à âge équivalent.

Tout ce qui contribue à la visibilité médiatique du joueur augmentera la valeur de son contrat (sélections en équipe nationale, nombre de « followers » sur les réseaux sociaux, etc.). Ensuite, un transfert repose sur un contrat d’engagement qui est un actif comptable (ce qui est d’ailleurs une des particularités du football). Plus la durée d’engagement figurant dans le contrat est étendue, plus sa valeur sera élevée, car le club dispose de fait d’un droit d’usage plus long.

Enfin, la très forte progression des droits TV dans certains championnats (et notamment le championnat anglais), l’arrivée d’investisseurs internationaux comme le Qatar ou Abu Dhabi et la globalisation de l’économie du football ont créé les conditions pour une inflation des valeurs des transferts des joueurs.

 

1. PAS DE MODELE CONCLUSIF

La littérature économique et financière propose différentes approches pour estimer la valeur financière des transferts. Certains chercheurs ont tenté d’expliquer les valeurs constatées à partir de quelques variables (âge du joueur, poste, nationalité, performance sportive et extra-sportive, etc.). D’autres ont modélisé l’incertitude associée à la performance sportive future ou encore à la capacité d’un club à exploiter pleinement le potentiel d’un joueur.

Aucune de ces approches n’est pourtant totalement convaincante pour appréhender la globalité du marché des transferts. Trop de paramètres entrent en jeu, car il faut modéliser non seulement les performances sportives et extra-sportives du joueur, les caractéristiques du contrat, mais également les capacités sportives et financières des clubs acheteurs et vendeurs, etc. Tout cela dans un contexte où l’importance des différentes variables change dans le temps.

 

2. UN ‘MARCHE’ TRES HETEROGENE

Autre difficulté majeure : le « marché » des transferts est très loin d’être homogène. La valeur moyenne d’un transfert se situe à des niveaux très inférieurs à celles des montants communiqués pour les quelques transferts les plus médiatisés. Pour les joueurs « standards » qui représentent la majeure partie des transactions, la théorie financière et les modèles sont relativement performants. Les clubs disposent de nombreux points de comparaison sur le marché des transferts et peuvent utiliser une approche analogique pour les valoriser.

S’agissant des quelques joueurs « stars », il est tout à fait abusif de parler de « marché » au sens où l’entend la théorie financière, du fait de la très grande rareté de ces joueurs et du nombre réduit de clubs acheteurs ou vendeurs. Il devient alors illusoire de valoriser les joueurs « stars » en retenant une approche financière classique.

L’inflation de la valeur des transferts ne bénéficiera pas aux clubs, car les plus-values réalisées devront être réinvesties dans d’autres transferts et en salaires sous peine de voir la performance sportive décliner. Marché peu régulé, afflux de capitaux, ressources rares… sans surprise dans le contexte actuel, seuls les joueurs et leurs agents seront au final les bénéficiaires.


Article des Echos – 12/09/2017

Football Episode 2 – L’inexorable concentration du football européen

​​Third author:
Franck Bancel (Academic Advisor)

 

Le football européen repose sur une organisation pyramidale. A la base se trouvent les clubs amateurs de chaque pays, et au sommet, les clubs de première division. Cette représentation dominante repose sur l’idée qu’il existe une certaine « porosité » entre football amateur et football professionnel. Même si cela doit rester un exploit, une équipe de football amateur est supposée pouvoir battre n’importe quel club professionnel, notamment lors des coupes nationales organisées dans les différents pays d’Europe.

Cette structure pyramidale s’oppose au concept de ligue fermée qui caractérise le sport professionnel en Amérique du Nord (NBA, NFL, etc.). Par définition, les équipes engagées dans une ligue fermée ne sont pas concernées par une quelconque relégation en division inférieure. L’organisation des ligues fermées nord-américaines repose sur un ensemble de dispositifs de régulation qui visent à assurer l’équité sportive entre les clubs. A la fin de chaque saison, les meilleurs joueurs universitaires sont ainsi répartis entre les équipes professionnelles par un tirage au sort qui favorise les équipes les moins bien classées (‘draft’).

 

 

1. LA LIGUE DES CHAMPIONS, A PREMIERE VUE, OUVERTE…

Les instances européennes du football militent pour le maintien d’un système de ligue ouverte. Ce discours masque cependant une réalité bien différente. Le football professionnel se caractérise aujourd’hui par une concentration des moyens financiers dans un nombre limité de clubs. Ces grands clubs ne sont plus en compétition qu’entre eux, comme c’est le cas dans une ligue fermée.

L’UEFA a pourtant instauré le « fair-play » financier en 2010, mais sans réguler directement les conditions de l’équité sportive. Les grands clubs européens peuvent racheter les joueurs les plus talentueux, entretenir des effectifs pléthoriques, et ils disposent de tous les moyens pour s’assurer une domination sans partage sur le plan sportif.

La Ligue des champions, qui est la plus prestigieuse des compétitions de football en Europe, en est une parfaite illustration. A priori, toutes les équipes engagées en Ligue des champions sont supposées pouvoir la gagner. Cependant, quand on regarde ce qui s’est passé depuis vingt ans, on se rend compte que ce n’est pas la glorieuse incertitude du sport qui domine, mais, au contraire, un renforcement significatif de la place de certains pays et de certains clubs.

 

2. MOINS DE PLACE POUR LES PETITES NATIONS

Selon une étude Accur’League, entre 1995 et 2001, 25 % des quarts de finalistes de la Ligue des champions ne faisaient pas partie des clubs des cinq grands championnats (Allemagne, Angleterre, Espagne, France et Italie). Depuis 2002, ce pourcentage moyen n’est plus que de 13 %.

Au niveau des demi-finales, la présence d’un club d’un « petit » pays relève désormais de l’anomalie statistique (depuis 2005, seul le PSV Eindhoven a atteint ce stade de la compétition). Les moyens financiers nécessaires pour être compétitif en Ligue des champions sont hors de portée de la plupart des clubs. Ainsi, si l’on observe le chiffre d’affaires des clubs ayant participé à la compétition sur les dix dernières éditions, on constate qu’il s’établissait en moyenne à 248 millions d’euros pour les huitièmes de finale, 348 millions d’euros pour les demi-finales et 379 millions euros pour le vainqueur.

A partir de 2018, les quatre pays les mieux classés à l’indice UEFA (Espagne, Royaume-Uni, Allemagne et Italie) bénéficieront automatiquement de quatre engagés. Cette réforme diminuera encore les risques de non-participation pour les clubs de ces quatre pays qui pourront procéder à des investissements toujours plus importants.

 

3. CONCLUSION

La Ligue des champions s’apparente déjà à une ligue fermée et cette tendance devrait encore se renforcer dans les prochaines années.


Article des Echos – 05/08/2017

Football Episode 1 – Le Football : un bon risque pour les financiers

Autres auteurs :
Franck Bancel (Academic Advisor)
Bruno Belgodere (Director of Economics Affairs of Premiere Ligue)

 

D’un point de vue financier, investir dans un club de Ligue 1 n’est pas si irrationnel. Plus le budget est important, moins le risque est élevé.

Le secteur du football est régu lièrement présenté comme un exemple « d’exubérance – irrationnelle » du point de vue de ses pratiques financières (rémunération des joueurs, montant des transferts, etc.). Les clubs de football sont souvent décrits comme peu performants dans leur gestion financière et comme des entités opaques et risquées.

Pourtant, malgré cette image peu flatteuse, l’attractivité du secteur ne se dément pas. De grands clubs européens ont ainsi été acquis par des investisseurs de diverses nationalités, qui ont investi des sommes importantes : Manchester City, Chelsea, le PSG et plus récemment l’Olympique de Marseille, racheté par l’investisseur américain Franck McCourt.

 

1. LES RESULTATS SPORTIFS, SEUL VRAI RISQUE

Le club de football serait-il la « danseuse » du financier du XXI siècle ? Une des manières de faire avancer ce débat serait de mesurer les risques pris par les financiers quand ils investissent dans le football. Quels sont ces risques ? Peut-on les quantifier ? Est-il envisageable de s’en prémunir ? Existe-il des gisements de valeur dans les clubs qui sont aujourd’hui sous-estimés ?

La réponse à la première question est la plus simple : pour un club de football, le risque est avant tout sportif. Un club qui « sous-performe » sur un plan sportif devra assumer, l’année suivante, une baisse de ses revenus et de ses ambitions. Sur le long terme, l’absence de résultats sportifs dégrade progressivement la valeur de la marque. Ce risque sportif n’est pas le même pour tous les clubs, c’est une évidence.

 

2. LA PERFORMANCE, INTIMEMENT LIEE AU BUDGET

En revanche, ce qui est plus surprenant, c’est l’ampleur des écarts entre les clubs. Nous avons ainsi pu mesurer la corrélation entre le risque sportif (et donc les revenus) des clubs de Ligue 1 et leur budget. Ainsi, aucun club dont le budget est supérieur à 100 millions d’euros n’a été, durant les dix dernières années, relégué en Ligue 2.

The football sector is regularly portrayed as an example of ‘irrational exuberance’ with regard to its financial practices (player remuneration, prices of transfers, etc.). Football clubs are often described as underperforming in their financial management and as opaque and risky entities.

However, despite this unflattering image, the appeal of the sector is undeniable. Investors of diverse nationalities have invested significant sums to acquire large European clubs: Manchester City, Chelsea, Paris Saint-Germain, and more recently Olympique de Marseille, bought by the American investor Franck McCourt.

 

 

Les clubs présentant les budgets les plus importants ont seulement 8 % de risque d’être classés entre la 10e et la 17e place

 

 

Les clubs présentant les budgets les plus importants ont seulement 8 % de risque d’être classés entre la 10 et la 17 place, 65 % de chance de se qualifier pour la Ligue des champions et 23 % de se qualifier pour la Ligue Europa. A l’autre extrême, un club dont le budget est inférieur à 40 millions d’euros a 22 % de risque d’être relégué en Ligue 2, 4 % de chance de se qualifier en Ligue Europa et seulement 1 % en Ligue des champions.

Dit autrement, le budget conditionne les résultats sportifs et on observe que cette tendance s’est significativement renforcée au cours des dernières années avec l’arrivée d’investisseurs et l’accroissement des droits télévisuels. Le budget total de la Ligue 1 est ainsi passé en dix ans de 850 millions d’euros à environ 1,5 milliard d’euros, permettant à quatre clubs d’avoir un budget supérieur à 100 millions d’euros en 2015.

 

3. ECART SUPPORTABLE

Par ailleurs, les clubs de Ligue 1 disposent de réserves de valeur importantes. En 2015, la majorité des clubs de Ligue 1 (15 clubs) ont un écart entre la valeur de marché et la valeur comptable de leur et la valeur comptable de leur effectif compris entre 2 et 15. Cette réserve de valeur s’explique en partie par le fait que de nombreuses équipes détiennent un centre de formation performant et sont capables d’éduquer des joueurs de premier plan dont la valeur n’apparaît pas dans les comptes.

Investir dans le football n’est donc pas complètement irrationnel d’un point de vue financier. Le risque est quantifiable et, par ailleurs, très fortement corrélé au budget. En Europe, la Ligue 1 dispose d’un important potentiel de développement et a vocation à continuer à attirer des investisseurs. Au total, avec un risque de mieux en mieux appréhendé et maîtrisé par les financiers, le football est un territoire qui leur reste encore à défricher, toujours à la recherche de nouvelles opportunités d’investissement.


Articles des Echos – 26/02/2017