In our eighth edition of Accuracy Talks Straight, Xavier Chevreux introduces the luxury sector in the editorial before handing over to Romain Proglio, who presents Brandwatch, a pioneering start-up in social media analysis. We then consider the place of the client in relation to the brand in the luxury sector with Abel Perea Burrel and Carlo Paviciullo. Sophie Chassat goes on to present the ‘desirability’ strategies of major luxury players and Luc Paugam, associate professor at HEC Paris, evaluates the strength and value of brands. Finally, Hervé Golletquer, our senior economic adviser, focuses on the economy and finance of French luxury.
In this final edition of the Economic Brief before the summer break, two rather distinct topics come to the fore: US/EU rivalry and the green transition. We will take a look at how the two juggernauts of the West compare in certain areas of the economy, and we will examine how the green transition is driving change and how such a mammoth undertaking can be financed.
With numerous recent crises of global scale, governments have had to act decisively to protect their own economies and populations. This has inevitably meant turning to debt to find the cash necessary to implement protective measures. But what are the consequences? And should there be a limit? As for global trade, it grew strongly in 2022; however, this belies the structural changes that have been taking place. In this edition of the Economic Brief, we will delve into these topics, notably focussing on public debt levels for the major eurozone economies and recent developments in global trade, in particular with regard to China.
In light of the huge industrial programmes announced recently in both the EU and the US, in this edition of the Economic Brief, we will provide a brief overview of the history of industrial policy and the four key phases to bear in mind that may influence policy in the future. We will then zoom in on China to examine its current economic activity and how the government is handling its economic and foreign policies.
The international financial and strategic advisory firm Accuracy is expanding its team in Germany with the integration of Daniel Mair as a new partner, specialised in transaction services.
This report introduces Accuracy’s key recommendations and guidelines on three specific topics that the construction sector needs to address to move towards sustainable practices and achieve net zero by 2050.
The intent is to outline the areas where COP 28 should focus to enable and accelerate the implementation of best practices in the region, as well as foster innovation within the sector.
For our seventh edition of Accuracy Talks Straight, Delphine Sztermer and Nicolas Bourdon presents the editorial, before letting René Pigot introduce us to Naarea, a startup which aims to design and develop fourth-generation low power molten salt reactors. We will then analyse 5G in Europe with Ignacio Lliso and Alberto Valle. Sophie Chassat, Philosopher and partner at Wemean, will talk about superstructures. Then, we will use the example of motorway concessions to evaluate the risk in business with Bruno Husson, Honorary partner. Finally, we will focus on 2023 with Hervé Goulletquer, our senior economic adviser.
In his 1977
novel The Gasp, Romain Gary already raises the issue of access to a cleaner
source of energy. Gary imagines nothing less than recovering the souls of the
deceased as fuel for machines, leaving humanity faced with the question of what
it is willing to accept morally to pursue its growth and maintain its lifestyle.
And Gary concludes: ‘The paradox of science is that there is only one response
to these misdeeds and perils; even more science.’
Driven by the
broad awareness of environmental challenges, the world of infrastructure is experiencing
multiple revolutions and now finds itself in the spotlight on both the
political and economic stages. From being the poor relation in terms of
investment 25 years ago, infrastructure is now the focus of many expectations.
We see three
major challenges to be met:
• The speed of deployment of a realistic decarbonised energy mix, adapted to local constraints, in which nuclear plays an important role as a primary source where geographically possible. The myriad new promising projects, covering the whole value chain from production to storage and distribution, will find specialised funds revising their investment scopes. Cooperation between political decision-makers and public and private actors will also be a determining factor to accelerate decarbonisation.
• The adaptation of distribution networks (hydrogen and electric) must go hand-in-hand with the adaptation (conversion) or the production of rolling stock in the automotive, railway and later aeronautical industries. Manufacturers and network managers must better cooperate to avoid the mutual wait-and-see attitudes that delay the deployment of solutions.
• The volume of projects necessary and the cash piles available mean that lenders need to rethink their financing execution processes to make them faster and smoother.
We have not forgotten
the importance of waste treatment, water treatment and telecommunication
networks. These critical sectors are facing their own technological challenges,
but they are highly dependent on the quality of energies that they can consume
or on the transport networks made available to them.
The world of infrastructure
has never needed innovation more!
In light of the
energy crisis and sovereignty challenges that have recently emerged, nuclear power
is again the subject of much interest as a form of low-carbon energy. But what
will be the nuclear energy of tomorrow? Next to conventional nuclear power,
which remains the prerogative of governments and government-assisted bodies,
numerous privately financed start-ups have begun operations in the last few
years in this industry, like NAAREA (an acronym of Nano Abundant
Affordable Resourceful Energy for All).
Through its
XS(A)MR (extra-small advanced modular reactor) project, NAAREA aims to design
and develop fourth-generation low power molten salt reactors (< 50 MW).
There are
multiple advantages to this technology – initially developed in the 1950s and
1960s – according to the two founders, Jean-Luc Alexandre and Ivan Gavriloff.
First, this type of reactor, which works by dissolving the nuclear fuel in salt
melted at a high temperature (700°C), is safer thanks to the fission regulation
systems made possible as a result of its smaller size. Further, there is no
drain on natural resources because the reactor uses fuel from existing reserves
of nuclear waste and thorium (the concept of waste-to-energy), thus limiting
any dependence on uranium suppliers. In addition, the waste resulting from the
process is very limited, reducing the risk of dispersal and issues linked to
storage. But the main advantage of this innovation, and also what
differentiates it from other major projects in the US or China, lies in its
very small size. With a highly compact volume, not far from the size of a
shipping container, the reactor can be deployed in an independent and
decentralised way, making it possible to be closer to industrial consumers,
without needing to reinforce current distribution networks or access to water.
Ultimately, this type of reactor should ensure a more affordable energy price
than that resulting from fossil fuels and renewable energy for an autonomy of
up to 10 years.
NAAREA’s
objective is to produce and operate directly its micro power plants in large
quantities and to sell the energy produced to industrials. This positioning as
a service provider is much more engaging and therefore reassuring for nuclear
safety authorities, as it avoids the proliferation of nuclear operators. Here
again, it differs from the numerous other competing projects that hope to
provide the solution.
In exchange,
this project requires significant investment. Today, the start-up has already
raised tens of millions of euros from family offices and has built partnerships
with major industry players: the CEA, the CNRS, Framatome, Orano, Dassault
Systèmes, Assystem. Indeed, with Assystem, it is in the process of producing
the digital twin of its reactor, scheduled for summer 2023. Participating
notably in the ‘Réacteurs nucléaires innovants’ call for projects as part of
the ‘France 2030’ investment plan, NAAREA hopes to raise hundreds of millions
of euros more to be able to build its prototype by 2027 and its first unit by
2029.
In 2019,
Europe proclaimed the advent of 5G, a new communication technology that would
disrupt the way businesses and individuals interact with each other. Four years
later, the deployment of the necessary infrastructure is far from complete, and
companies at the forefront of its development appear to be taking things easy. Why?
Because return on investment is unclear.
However, some
experts see signs indicating that the current landscape is about to shift. New
types of companies, born from new technologies such as augmented reality,
autonomous devices or remote working, are demanding more data at faster rates and
with new functionalities.
This
gives rise to some questions: what is the enabler that could accelerate 5G penetration?
Who will benefit most from 5G? How will investors recover their investment?
1. Are we facing the true shifting point for 5G adoption?
Ericsson estimates a significant increase in 5G subscriptions from now until 2028, driven by the availability of devices from several vendors, the reduction of prices and the early deployment of 5G in China. This massive worldwide adoption will lead to:
(i) an increase in the number of users to five billion (80% of traffic as video); (ii) a more balanced distribution of users across continents; (iii) mobile traffic data increasing from 15 EB per month to 225 EB per month worldwide.
Figure 1 – 5G penetration rate by region
Figure 2 – Breakdown of 5G subscription by regions
Figure 3 – 5G mobile traffic data worldwide
This shift must be fuelled by the many advantages of 5G over 4G, which rely on the increased upload/download speed – up to 1 GB per second – its spectrum, capacity and latency.
Table 1 – Overview of 5G characteristics vs 3G and 4G
Another advantage
lies in its energy efficiency; figures prove that 5G technology consumes only 10%
of the power used by 4G.
Further advantages
include (i) reduced interference, (ii) improved security and (iii) connection
to newly developed products.
2. What is impeding the deployment of its infrastructure in Europe?
It is difficult to provide an accurate and up-to-date number of base stations currently in operation in Europe because the deployment of 5G networks is ongoing and varies significantly country to country.
Table 2 – 5G Band types and characteristics
Several external
factors have impeded a robust deployment, factors that can be segmented into
two categories.
Business factors:
• The unclearmonetisation strategy for network developers, with no concrete business case providing a sufficient return.
• A weaker tech ecosystem pushing for an accelerated adoption of 5G to serve their needs (e.g. immersive technologies).
• Challenging access to hardware, particularlysincethe US government blocked global chip supply to the blacklisted telecommunications giant Huawei.
• The slow replacement of old generation devices.
Political and
administrative factors:
• The highly fragmented European market,with hundreds of operators – in the US or China, there are three large operators with the critical mass to invest.
• Higher European administrative and bureaucratic hurdles to network providers.
• A lack of process standardisation – operators struggle to find deployment synergies due to the high level of competition in each local market.
• A weaker political push versus Asia where technologies are leveraged to monitor and control populations.
3. What is Europe doing to overcome these challenges?
The deployment of 5G in the EU is developing heterogeneously across its members. By the end of 2020, 23 member states had activated commercial 5G services and met the goal of having at least one major city with 5G accessibility. Nevertheless, not all national 5G broadband plans include references to the EU’s 2025 and 2030 ambitions.
Figure 5 – 5G roll-out in Europe
The European Commission has estimated that 44% of all mobile connections in Europe will be under 5G in three years. This objective has led the Commission to put in place many initiatives to accelerate the roll-out of 5G in Europe, proactively searching for solutions and working to enhance deployment. These initiatives have contributed to the fact that by the end of 2021, the EU had installed more than 250k 5G base stations, covering 70% of its population. However, this coverage lacks much of the functionality and data transfer speed attributed to the new technology.
4. Is 5G a lucrative business?
The
primary issue for operators is how to recover their investment. The way in
which operators monetise their services is expected to change from their
traditional business models; hence, monetisation strategies and 5G roll-out
business cases will need to be revisited.
For
example, the investment required to upgrade existing networks to 5G networks will
amount to c. €5 billion in Spain alone, plus an additional €2 billion estimated
by the Spanish government to drive the roll-out of 5G between 2021 and 2025. A
total amount, therefore, of €7 billion.
Operators
are aware of the inevitable increase in operating and capital expenditure.
However, there is no clear path to making the investment profitable. For operating
expenses, the collaboration of neutral infrastructure operators is crucial, as they
represent (i) enablers of a traditional 5G deployment, (ii) the perfect
partners for the scenario of large data consumption and ultra-high speed rates
and (iii) an essential resource to make these investments less prohibitive for
operators. For capital expenditure, operators are experimenting with different
options to seek a return throughout the value chain, some of which take them far
from their comfort zones. For example, Telefonica is studying the monetisation using
APIs, which enables users to pay for different configurations of speed, latency
and service quality,
In addition, network operators are looking for alternatives through partnerships with new technology providers to: • better understand each other’s needs and capabilities; • allow manufacturers to improve efficiency; • avoid commoditisation and provide high value-added services around SaaS, PaaS or NaaS; • better share earnings from these new services.
5. Who might be the “winners” of a successful 5G deployment?
Figure 6 – 5G value chain and its main players
While network
operators are struggling to find a way to monetise their investments, other players
are poised to extract value from the deployment of 5G:
• Tower/infrastructure providers – the construction of a large number of towers and base stations may be necessary in certain regions. However, the costs of dismantling obsolete infrastructure should also be considered.
• OTTs and other service providers –suppliers ofautonomous driving, smart cities, Industry 4.0, telehealth, smart farming or entertainment, for example.
• Equipment providers – component and module suppliers, machinery and industrial automation companies and manufacturing companies for visual quality checks.
6. Conclusion
Tower
constructors and network operators are heading towards a new era of
communications, but the challenges they are facing are significant. The current
low level of demand is impeding the adoption of this new technology, and some investors
feel it does not justify the huge investment.
Meanwhile,
technology costs have increased in what has become a global competition for
hardware and chips. European players face fierce and imbalanced competition from
Chinese and US operators that benefit from better equipment sourcing, more
favourable administrative frameworks, higher economies of scale due to market
consolidation and higher demand fostered by their dynamic tech ecosystems.
On the one hand, building infrastructure requires
scale and long-term economic vision; on the other, technological disruption requires
agility. Today, the European ecosystem has proved to be weak when faced with this
paradox.
However, European
institutions have started to realise the extent of this gap and have begun to show
significant support for the technology. Nevertheless, this will not be enough for
its deployment, and private operators must raise their game.
For 5G to
become a reality in Europe, all stakeholders will have to collaborate, sharing
their knowledge and future profits. This means designing, modelling and
implementing major strategic alliances
between European operators. This also means sharing investments and designing
smart profit sharing with downstream tech ecosystem players benefitting from 5G
expansion.
Sophie Chassat Philosopher, Partner at Wemean
Disruptive superstructures
If technical and
technological innovations require disruptive infrastructures, society will also
need to equip itself with ‘disruptive superstructures’. What is a
superstructure? It is the intangible equivalent of infrastructure, that is to
say, the ideas of a society, its means of expressing itself (art, philosophy,
morality) and its governmental institutions, as well as its cultural and
educational institutions.
It was Karl Marx
who invented this coupling of concepts to show their deep co-determination: a
society’s ideological superstructures depend closely on its tangible and
economic infrastructures – and vice versa. For example, the industrial
revolution gave rise to developments in both infrastructure (technical
innovations, mechanisation, division of labour, etc.) and superstructure
(liberalism, rationalism, bourgeois morality, etc.), which reinforced each
other.
What disruptive
superstructures will we need to support the tangible and economic changes of
our time? Though we know nothing for certain, what we do know is that our
current superstructures are no longer appropriate. This is the starting point
of an excellent TedX by Sir Ken Robinson on our educational systems: the
paradigm on which they are based is still that of the industrial age.
Indeed, our
educational system was conceived in the 19th century in the economic context of
the industrial revolution. Logically, school is therefore organised to prepare
pupils for this system of production: bells ringing, separate installations,
specialised subjects, and standardised study programmes and tests. This is what
Sir Ken Robinson calls ‘the factory model of education’.
The educational
system inherited from the industrial age has one fault in particular: it kills
creativity and divergent thought. And yet, this is something that our age, one
of the most stimulating in history, needs now more than ever! That is why a radical
change of paradigm in this area is essential, and it takes place in three
steps. First, end the myth that there is a division between the academic and
the non-academic, between the theoretical and the concrete; in other words,
stop separating education from life.
Second, recognise that most major learning is done collectively –
because collaboration is the basis of progression – rather than encourage
individual competition between pupils.
Third, change
the thought patterns of those who work in the education system, as well as the
architecture of the places where they work. The philosopher Michel Foucault
already noted profound resonance between the spatial and temporal organisation
of factories and schools. Inventive disruptive infrastructures will, in turn,
have to match these new disruptive superstructures. What will the schools of
tomorrow look like? Where will they be? Some, like Sugata Mitra in India, see
them in the cloud; others see them in the middle of nature, like the forest
schools that are flourishing in Europe. But why don’t we ask our children and
young people what they think? Creativity is after all their area of expertise,
no?
Bruno Husson Honorary partner, Accuracy
Time and risk in the valuation of a business – The example of motorway concessions
The value of an asset can be
easily approached by the prices observed on a market where comparable assets
are exchanged. This is the analogical approach to valuation. An alternative
solution consists of replicating in a valuation model the way in which the
market forms these prices. This is the intrinsic approach to valuation and the
founding principle of the discounted cash flow (DCF) method, the prominent method
associated with this second approach.
The two key parameters of
any financial valuation: time and risk
The starting point of the
intrinsic approach to valuation is the definition of the concept of financial
value. According to this concept, the value of an asset is based on the cash
flows that the asset holder is likely to receive in the future. As these cash
flows are spread over time and subject to risk, the valuation model must
necessarily incorporate the behaviour of the investor with regard to two
parameters: time and risk. Financial theory indicates how to incorporate time
and risk in isolation, that is, how to incorporate time without consideration
of risk and how to incorporate risk as part of a single-period model (i.e.
without consideration of time).
When considering time, valuation
models use the discounting technique, that is, the commonly accepted assumption
that an individual has a preference for the present. On financial markets where
we implicitly exchange time (i.e. a sum of money held today against a sum of
money available at a later date) through the acquisition of securities
considered risk-free (treasury bills or government bonds), an individual’s
preference for the present is logically reflected by the existence of a
positive interest rate. This risk-free interest rate crystallises a fundamental
principle of finance: the time value of money (one euro today is not the
equivalent of one euro tomorrow because the euro received today, deposited at
the risk-free rate, will give more than one euro tomorrow). Based on this
principle, the discounting technique makes it possible to aggregate cash flows
(assumed to be risk-free) occurring at different dates, bringing them back to
today’s date by means of the interest rate, and finally to determine the value
of the asset associated with this series of cash flows.
When considering risk, the valuation
model frequently used by valuers is the Capital Asset Pricing Model (CAPM).
This model relies on segmenting risk into two components: (i) the specific risk
(or diversifiable risk), which asset holders can eliminate by diversifying
their portfolios, and (ii) the systematic risk (or undiversifiable risk), which
even the investor whose portfolio is perfectly diversified must bear. According
to the CAPM formula, the return required on a financial asset is equal to the
risk-free interest rate plus a risk premium that depends only on systematic
risk (the market does not remunerate the diversifiable risk). Thanks to CAPM,
we know how to calculate the value of an asset generating a risky cash flow
over a single period: it is the average cash flow (or ‘expected’ cash flow)
discounted at the rate of return given by the formula. The two components of
risk linked to the assets are taken into account: the specific risk through the
calculation of the expected cash flow (i.e. in theory, the average of the
expected cash flows in the various possible scenarios, weighted for the
likelihood of occurrence of these scenarios), and the systematic risk via the
discounting of the expected cash flow at a rate incorporating a risk premium.
However, in practice, it is
necessary to take into account the point that the valuations might be for
entities generating cash flows over several periods (or even in perpetuity).
This leads valuers to step away from the theoretical context mentioned above to
incorporate both the time and risk parameters in the same model (in other
words, combining risk with time).
The usual way of integrating risk in the discount
rate can lead to a significant underestimation of the entity being valued: the example
of motorway concessions
The typical approach used by
valuers to incorporate risk consists of transposing the CAPM into a
multi-period framework. More concretely, the price of time and (systematic)
risk are considered simultaneously over the lifetime of the entities being
valued via the discounting of expected future cash flows at a single risk rate.
This rate is equal to the risk-free interest rate increased by the (constant)
risk premium from the CAPM formula.
The alternative approach
incorporates successively (and not simultaneously) the time and risk
parameters: first the risk parameter via the determination of the ‘certainty
equivalent cash flows’ and second the time parameter via the discounting of
these cash flows at the risk-free interest rate. The certainty equivalent cash
flows incorporate the entirety of the risk and are therefore lower than the
expected cash flows that only incorporate the diversifiable portion of risk.
The difficulty in the
alternative approach lies in determining the adjustment coefficients to be
applied to the expected cash flows in order to obtain the certainty equivalent
cash flows. These coefficients can be estimated within the theoretical
framework of the CAPM, but the calculation formula, which is rather convoluted,
proves inapplicable in practice. It is also worth highlighting that, in the
context of a business valuation, the valuer must first appreciate the level of
optimism of the business plan, before even considering the risk integration
mechanisms. If the valuer considers that the business plan represents the
average scenario associated with the expected cash flows, he or she can then
either discount these cash flows at the CAPM risk rate or determine the
certainty equivalent cash flows and discount them at the risk-free interest
rate. If the business plan appears rather conservative, or even pessimistic,
the valuer cannot implement the usual approach without adjusting the business
plan cash flows upwards; however, he or she can directly choose the alternative
approach by considering that the business plan cash flows provide a reasonable
estimation of the certainty equivalent cash flows.
The usual approach to
integrate risk can be criticised because, by using the discounting technique to
combine risk with time (though this technique is, in theory, only supposed to
take into account the time value of money), it implicitly makes a significant
assumption on the development of the systematic risk by assuming that this risk
increases considerably with time. The alternative approach appears more solid
because, by dealing separately with the issues related to the incorporation of
time and risk, it does not make any assumption on the development of the risk. This
allows all valuation cases to be handled rigorously and in particular the
valuation of activities that benefit from good visibility over a long period
(for example, infrastructure projects) and for which the assumption of a risk growing
with time is particularly debatable.
By way of illustration, let
us consider a motorway concession likely to generate on average an annual cash
flow of €800m over a period of 30 years (inflation is assumed to be nil). Based
on a (real) risk-free interest rate of 1.5%, an asset beta of 0.5 and a market
risk premium of 5.5%, the rate of return given by the CAPM formula amounts to
4.25% and the value of the concession using the typical risk integration
approach comes to €13,423m (value of annual cash flow of €800m discounted at
4.25%). Given the good visibility of the revenues, which despite a relatively
fixed cost base grants the activity a low systematic risk (confirmed by the
beta coefficient of 0.5), it seems reasonable to base the determination of the
certainty equivalent cash flows on a constant abatement coefficient of 0.15. On
this basis, the value of the concession using the alternative approach comes to
€16,331m (value of the annual certainty equivalent cash flow of €680m
discounted at the risk-free interest rate of 1.5%). The gap in the estimated
values given by the two approaches amounts to around 22% and comes from the
implicit assumptions made on the development of risk over time. With the
alternative approach, the risk is assumed to be unchanging (the deduction on
the expected cash flow for risk is 15% in any given year); with the usual
approach the risk increases significantly with time (the deduction for risk
thus grows from 10% in year 4 to 21%, 31%, 40% and 50% in years 9, 14, 19 and
26 respectively, i.e. a very significant increase that the risk profile of the
activity cannot justify).
In conclusion, adopting the usual risk-integration approach to value activities that benefit from good visibility over a long duration is debatable and can lead to significant undervaluations.
Emerging markets and developing economies (EMDEs) have struggled through the succession of crises experienced over the past three years: health (Covid), geopolitical (the Russo-Ukrainian war, tensions in the South China Sea and growing Sino-American rivalry), economic (the return of inflation) and financial (the rise in interest rates and the dollar in a context of (primarily public) debt that calls for vigilance). Their growth, if we exclude China, declined more in 2020 than that of advanced economies, and the subsequent rebound was more modest. The gap will not be filled this year or next.
Monde : les économies les moins développées souffrent le plus
Investment in infrastructure in EMDEs seems to have particularly suffered from this rather unfavourable dynamic. If we believe the Global Infrastructure Hub (November 2022), investment in this area in 2021 grew by 8.3% in high-income countries and fell by 8.8% in their medium- or low-income equivalents. Indeed, in that year, 80% of infrastructure projects were implemented in developed economies. How can we then not intuit that the return to more confidence for growth prospects is a prerequisite to the recovery of infrastructure investment in the EMDEs!
One more thing
before looking ahead: the multiplying effect of the change in financial
conditions on the growth profile needs to be measured. The tightening of monetary
policy by the main central banks makes financing EMDEs much more difficult.
And this observation is all the more pertinent given that their credit rating
is weak. According to the World Bank’s findings, bond issues for all countries
concerned fell by USD 250 billion in 2022 (much more than during the crises
scattered over the past 15 years!), whilst the differences in sovereign spreads
increased by 1,740 basis points (17.4%) for low-rated, energy-importing countries.
According to
the IMF, the economic growth of EMDEs is projected to stabilise at around 4%
this year and next year too. With the aid of a
magnifying glass, we might discern a very slight upward trend (respectively
+4.0% and +4.2%, after +3.9% in 2022). But the cloud of uncertainty, at such a complex
time for the global economy, doubtless overshadows the extent of this
acceleration. Though the quantification proposed may seem enviable compared
with the projected performance of advanced economies, it is somewhat lacklustre
compared with past performances closer to 5.5%.
Où va la croissance de la zone émergente ?
How then should we understand what might appear like a reserve in the IMF’s assessment?
First, there
is the nature of the rebound expected for the Chinese economy. The announced return to better fortunes represents good news for
the rest of the world. Fine, but to what extent? To answer the question, we need to push a
little further our understanding of the economic recovery over there. Its
origin lies in the removal of restrictions placed on the movement of people.
The direct beneficiaries will therefore be those people. As consumers, they
will most likely favour services. This is what we were able to observe in
Europe and the United States, after all. Moreover, it seems reasonable to
prioritise the assumption of measured support through a proactive economic
policy. Favouring the trio ‘consumption
– services – limited support via economic policy’ ultimately means not
following the typical pattern of a Chinese recovery. This time, it is the
result of fiscal and monetary stimulus, debt and investment. This difference
between today and yesterday makes it easy to see the limits to the benefit that
other countries should derive from China’s announced improvement. A quick
glance at the composition of China’s imports shows this. The proportion going
to households is small.
Then, there
is US monetary policy. Its calibration conditions
both part of the movement of the interest rate curves across the world and the
level of the dollar against numerous other currencies, does it not? Though it
is possible to consider that the majority of the rise in the Federal Reserve’s
base rate has been undertaken (it is now on average at 4.63%), two aspects
should be detailed: where will the ceiling be for the current phase of rises and
how long will it stay at that level? Faced with inflationary pressures that send
no clear signals of slowdown and with a labour market that is still tight, we might
want to answer higher and longer than the market consensus estimates. We must
therefore conclude that the US interest rate environment, if it becomes less
adverse than it was, will not be immediately conducive to the formation of beneficial
financial and economic conditions for EMDEs.
Lastly, there is the ability of each emerging or developing country to relay, through its own monetary policy capacities, the initiatives taken by Washington. That depends on the economic and foreign exchange balances. The situation is quite variable from one economy to another. If we rely on the sample presented below, only a minority has a real downside potential other than marginal on its policy rate, as long as the US situation allows it.
A la recherche des marges de manoeuvre pour baisser les taux directeurs dans le monde émergent
And then,
stepping away from the economy, but bearing in mind the implications that may
appear in this area, how can we not be interested in the political
developments to come!In this
area, a certain number of topics should be closely monitored; some are already
old and therefore well identified, whilst others have until now drawn less
attention:
• China: risk of conflict with Taiwan, US economic sanctions, increase in youth unemployment and undersizing of the retirement system
• Brazil: risk of political instability following Lula’s election
• Saudi Arabia: rapprochement with Russia and strategy to reduce oil production, considered hostile by the United States
• Israel: risk of war with Iran and consequences of the arrival of the far-right to government
• Russia: continuation of the war in Ukraine
The electoral cycle, with in particular the presidential and/or parliamentary elections in Nigeria, Turkey, Argentina and Lebanon.
This multidimensional view leads to the conclusion
that the auspices for 2023 do not appear particularly favourable for the
economies of EMDEs. However, the
capital markets are sending a much more optimistic message. Since last autumn, emerging zone bonds and equities have performed
well compared with those of the developed world, especially the US. How can we
explain this contrast?
In fact, the
investors and market operators have gambled that the world economy, and
particularly the US economy, will not fall into recession. Despite often low unemployment rates, the central banks will
succeed in bringing inflation to levels more or less compatible with the
defined targets, and without leading to a fall in activity for several
quarters. In this context, the appetite for risk comes back and the emerging
markets are taking advantage of it!
Des marchés obligatoires émergents qui reprennent des couleurs sur fond de taux longs américains mieux orientés
Retour à meilleure fortune des marchés actions émergents ?
On what side should we come down: the fundamental analysis or the view of the financial markets? It is very difficult to say! Let us simply remember that the bets for a soft landing of the economy are difficult to win, and doubtlessly even more so when the labour markets remain tight.
Emerging markets and developing economies (EMDEs) have struggled through the succession of crises experienced over the past three years: health (Covid), geopolitical (the Russo-Ukrainian war, tensions in the South China Sea and growing Sino-American rivalry), economic (the return of inflation) and financial (the rise in interest rates and the dollar in a context of (primarily public) debt that calls for vigilance). Their growth, if we exclude China, declined more in 2020 than that of advanced economies, and the subsequent rebound was more modest. The gap will not be filled this year or next.
Monde : les économies les moins développées souffrent le plus
Investment in infrastructure in EMDEs seems to have particularly suffered from this rather unfavourable dynamic. If we believe the Global Infrastructure Hub (November 2022), investment in this area in 2021 grew by 8.3% in high-income countries and fell by 8.8% in their medium- or low-income equivalents. Indeed, in that year, 80% of infrastructure projects were implemented in developed economies. How can we then not intuit that the return to more confidence for growth prospects is a prerequisite to the recovery of infrastructure investment in the EMDEs!
One more thing
before looking ahead: the multiplying effect of the change in financial
conditions on the growth profile needs to be measured. The tightening of monetary
policy by the main central banks makes financing EMDEs much more difficult.
And this observation is all the more pertinent given that their credit rating
is weak. According to the World Bank’s findings, bond issues for all countries
concerned fell by USD 250 billion in 2022 (much more than during the crises
scattered over the past 15 years!), whilst the differences in sovereign spreads
increased by 1,740 basis points (17.4%) for low-rated, energy-importing countries.
According to
the IMF, the economic growth of EMDEs is projected to stabilise at around 4%
this year and next year too. With the aid of a
magnifying glass, we might discern a very slight upward trend (respectively
+4.0% and +4.2%, after +3.9% in 2022). But the cloud of uncertainty, at such a complex
time for the global economy, doubtless overshadows the extent of this
acceleration. Though the quantification proposed may seem enviable compared
with the projected performance of advanced economies, it is somewhat lacklustre
compared with past performances closer to 5.5%.
Où va la croissance de la zone émergente ?
How then should we understand what might appear like a reserve in the IMF’s assessment?
First, there
is the nature of the rebound expected for the Chinese economy. The announced return to better fortunes represents good news for
the rest of the world. Fine, but to what extent? To answer the question, we need to push a
little further our understanding of the economic recovery over there. Its
origin lies in the removal of restrictions placed on the movement of people.
The direct beneficiaries will therefore be those people. As consumers, they
will most likely favour services. This is what we were able to observe in
Europe and the United States, after all. Moreover, it seems reasonable to
prioritise the assumption of measured support through a proactive economic
policy. Favouring the trio ‘consumption
– services – limited support via economic policy’ ultimately means not
following the typical pattern of a Chinese recovery. This time, it is the
result of fiscal and monetary stimulus, debt and investment. This difference
between today and yesterday makes it easy to see the limits to the benefit that
other countries should derive from China’s announced improvement. A quick
glance at the composition of China’s imports shows this. The proportion going
to households is small.
Then, there
is US monetary policy. Its calibration conditions
both part of the movement of the interest rate curves across the world and the
level of the dollar against numerous other currencies, does it not? Though it
is possible to consider that the majority of the rise in the Federal Reserve’s
base rate has been undertaken (it is now on average at 4.63%), two aspects
should be detailed: where will the ceiling be for the current phase of rises and
how long will it stay at that level? Faced with inflationary pressures that send
no clear signals of slowdown and with a labour market that is still tight, we might
want to answer higher and longer than the market consensus estimates. We must
therefore conclude that the US interest rate environment, if it becomes less
adverse than it was, will not be immediately conducive to the formation of beneficial
financial and economic conditions for EMDEs.
Lastly, there is the ability of each emerging or developing country to relay, through its own monetary policy capacities, the initiatives taken by Washington. That depends on the economic and foreign exchange balances. The situation is quite variable from one economy to another. If we rely on the sample presented below, only a minority has a real downside potential other than marginal on its policy rate, as long as the US situation allows it.
A la recherche des marges de manoeuvre pour baisser les taux directeurs dans le monde émergent
And then,
stepping away from the economy, but bearing in mind the implications that may
appear in this area, how can we not be interested in the political
developments to come!In this
area, a certain number of topics should be closely monitored; some are already
old and therefore well identified, whilst others have until now drawn less
attention:
• China: risk of conflict with Taiwan, US economic sanctions, increase in youth unemployment and undersizing of the retirement system
• Brazil: risk of political instability following Lula’s election
• Saudi Arabia: rapprochement with Russia and strategy to reduce oil production, considered hostile by the United States
• Israel: risk of war with Iran and consequences of the arrival of the far-right to government
• Russia: continuation of the war in Ukraine
The electoral cycle, with in particular the presidential and/or parliamentary elections in Nigeria, Turkey, Argentina and Lebanon.
This multidimensional view leads to the conclusion
that the auspices for 2023 do not appear particularly favourable for the
economies of EMDEs. However, the
capital markets are sending a much more optimistic message. Since last autumn, emerging zone bonds and equities have performed
well compared with those of the developed world, especially the US. How can we
explain this contrast?
In fact, the
investors and market operators have gambled that the world economy, and
particularly the US economy, will not fall into recession. Despite often low unemployment rates, the central banks will
succeed in bringing inflation to levels more or less compatible with the
defined targets, and without leading to a fall in activity for several
quarters. In this context, the appetite for risk comes back and the emerging
markets are taking advantage of it!
Des marchés obligatoires émergents qui reprennent des couleurs sur fond de taux longs américains mieux orientés
Retour à meilleure fortune des marchés actions émergents ?
On what side should we come down: the fundamental analysis or the view of the financial markets? It is very difficult to say! Let us simply remember that the bets for a soft landing of the economy are difficult to win, and doubtlessly even more so when the labour markets remain tight.
Time and risk in the valuation of a business – The example of motorway concessions
The value of an asset can be
easily approached by the prices observed on a market where comparable assets
are exchanged. This is the analogical approach to valuation. An alternative
solution consists of replicating in a valuation model the way in which the
market forms these prices. This is the intrinsic approach to valuation and the
founding principle of the discounted cash flow (DCF) method, the prominent method
associated with this second approach.
The two key parameters of
any financial valuation: time and risk
The starting point of the
intrinsic approach to valuation is the definition of the concept of financial
value. According to this concept, the value of an asset is based on the cash
flows that the asset holder is likely to receive in the future. As these cash
flows are spread over time and subject to risk, the valuation model must
necessarily incorporate the behaviour of the investor with regard to two
parameters: time and risk. Financial theory indicates how to incorporate time
and risk in isolation, that is, how to incorporate time without consideration
of risk and how to incorporate risk as part of a single-period model (i.e.
without consideration of time).
When considering time, valuation
models use the discounting technique, that is, the commonly accepted assumption
that an individual has a preference for the present. On financial markets where
we implicitly exchange time (i.e. a sum of money held today against a sum of
money available at a later date) through the acquisition of securities
considered risk-free (treasury bills or government bonds), an individual’s
preference for the present is logically reflected by the existence of a
positive interest rate. This risk-free interest rate crystallises a fundamental
principle of finance: the time value of money (one euro today is not the
equivalent of one euro tomorrow because the euro received today, deposited at
the risk-free rate, will give more than one euro tomorrow). Based on this
principle, the discounting technique makes it possible to aggregate cash flows
(assumed to be risk-free) occurring at different dates, bringing them back to
today’s date by means of the interest rate, and finally to determine the value
of the asset associated with this series of cash flows.
When considering risk, the valuation
model frequently used by valuers is the Capital Asset Pricing Model (CAPM).
This model relies on segmenting risk into two components: (i) the specific risk
(or diversifiable risk), which asset holders can eliminate by diversifying
their portfolios, and (ii) the systematic risk (or undiversifiable risk), which
even the investor whose portfolio is perfectly diversified must bear. According
to the CAPM formula, the return required on a financial asset is equal to the
risk-free interest rate plus a risk premium that depends only on systematic
risk (the market does not remunerate the diversifiable risk). Thanks to CAPM,
we know how to calculate the value of an asset generating a risky cash flow
over a single period: it is the average cash flow (or ‘expected’ cash flow)
discounted at the rate of return given by the formula. The two components of
risk linked to the assets are taken into account: the specific risk through the
calculation of the expected cash flow (i.e. in theory, the average of the
expected cash flows in the various possible scenarios, weighted for the
likelihood of occurrence of these scenarios), and the systematic risk via the
discounting of the expected cash flow at a rate incorporating a risk premium.
However, in practice, it is
necessary to take into account the point that the valuations might be for
entities generating cash flows over several periods (or even in perpetuity).
This leads valuers to step away from the theoretical context mentioned above to
incorporate both the time and risk parameters in the same model (in other
words, combining risk with time).
The usual way of integrating risk in the discount
rate can lead to a significant underestimation of the entity being valued: the example
of motorway concessions
The typical approach used by
valuers to incorporate risk consists of transposing the CAPM into a
multi-period framework. More concretely, the price of time and (systematic)
risk are considered simultaneously over the lifetime of the entities being
valued via the discounting of expected future cash flows at a single risk rate.
This rate is equal to the risk-free interest rate increased by the (constant)
risk premium from the CAPM formula.
The alternative approach
incorporates successively (and not simultaneously) the time and risk
parameters: first the risk parameter via the determination of the ‘certainty
equivalent cash flows’ and second the time parameter via the discounting of
these cash flows at the risk-free interest rate. The certainty equivalent cash
flows incorporate the entirety of the risk and are therefore lower than the
expected cash flows that only incorporate the diversifiable portion of risk.
The difficulty in the
alternative approach lies in determining the adjustment coefficients to be
applied to the expected cash flows in order to obtain the certainty equivalent
cash flows. These coefficients can be estimated within the theoretical
framework of the CAPM, but the calculation formula, which is rather convoluted,
proves inapplicable in practice. It is also worth highlighting that, in the
context of a business valuation, the valuer must first appreciate the level of
optimism of the business plan, before even considering the risk integration
mechanisms. If the valuer considers that the business plan represents the
average scenario associated with the expected cash flows, he or she can then
either discount these cash flows at the CAPM risk rate or determine the
certainty equivalent cash flows and discount them at the risk-free interest
rate. If the business plan appears rather conservative, or even pessimistic,
the valuer cannot implement the usual approach without adjusting the business
plan cash flows upwards; however, he or she can directly choose the alternative
approach by considering that the business plan cash flows provide a reasonable
estimation of the certainty equivalent cash flows.
The usual approach to
integrate risk can be criticised because, by using the discounting technique to
combine risk with time (though this technique is, in theory, only supposed to
take into account the time value of money), it implicitly makes a significant
assumption on the development of the systematic risk by assuming that this risk
increases considerably with time. The alternative approach appears more solid
because, by dealing separately with the issues related to the incorporation of
time and risk, it does not make any assumption on the development of the risk. This
allows all valuation cases to be handled rigorously and in particular the
valuation of activities that benefit from good visibility over a long period
(for example, infrastructure projects) and for which the assumption of a risk growing
with time is particularly debatable.
By way of illustration, let
us consider a motorway concession likely to generate on average an annual cash
flow of €800m over a period of 30 years (inflation is assumed to be nil). Based
on a (real) risk-free interest rate of 1.5%, an asset beta of 0.5 and a market
risk premium of 5.5%, the rate of return given by the CAPM formula amounts to
4.25% and the value of the concession using the typical risk integration
approach comes to €13,423m (value of annual cash flow of €800m discounted at
4.25%). Given the good visibility of the revenues, which despite a relatively
fixed cost base grants the activity a low systematic risk (confirmed by the
beta coefficient of 0.5), it seems reasonable to base the determination of the
certainty equivalent cash flows on a constant abatement coefficient of 0.15. On
this basis, the value of the concession using the alternative approach comes to
€16,331m (value of the annual certainty equivalent cash flow of €680m
discounted at the risk-free interest rate of 1.5%). The gap in the estimated
values given by the two approaches amounts to around 22% and comes from the
implicit assumptions made on the development of risk over time. With the
alternative approach, the risk is assumed to be unchanging (the deduction on
the expected cash flow for risk is 15% in any given year); with the usual
approach the risk increases significantly with time (the deduction for risk
thus grows from 10% in year 4 to 21%, 31%, 40% and 50% in years 9, 14, 19 and
26 respectively, i.e. a very significant increase that the risk profile of the
activity cannot justify).
In conclusion, adopting the usual risk-integration approach to value activities that benefit from good visibility over a long duration is debatable and can lead to significant undervaluations.
If technical and
technological innovations require disruptive infrastructures, society will also
need to equip itself with ‘disruptive superstructures’. What is a
superstructure? It is the intangible equivalent of infrastructure, that is to
say, the ideas of a society, its means of expressing itself (art, philosophy,
morality) and its governmental institutions, as well as its cultural and
educational institutions.
It was Karl Marx
who invented this coupling of concepts to show their deep co-determination: a
society’s ideological superstructures depend closely on its tangible and
economic infrastructures – and vice versa. For example, the industrial
revolution gave rise to developments in both infrastructure (technical
innovations, mechanisation, division of labour, etc.) and superstructure
(liberalism, rationalism, bourgeois morality, etc.), which reinforced each
other.
What disruptive
superstructures will we need to support the tangible and economic changes of
our time? Though we know nothing for certain, what we do know is that our
current superstructures are no longer appropriate. This is the starting point
of an excellent TedX by Sir Ken Robinson on our educational systems: the
paradigm on which they are based is still that of the industrial age.
Indeed, our
educational system was conceived in the 19th century in the economic context of
the industrial revolution. Logically, school is therefore organised to prepare
pupils for this system of production: bells ringing, separate installations,
specialised subjects, and standardised study programmes and tests. This is what
Sir Ken Robinson calls ‘the factory model of education’.
The educational
system inherited from the industrial age has one fault in particular: it kills
creativity and divergent thought. And yet, this is something that our age, one
of the most stimulating in history, needs now more than ever! That is why a radical
change of paradigm in this area is essential, and it takes place in three
steps. First, end the myth that there is a division between the academic and
the non-academic, between the theoretical and the concrete; in other words,
stop separating education from life.
Second, recognise that most major learning is done collectively –
because collaboration is the basis of progression – rather than encourage
individual competition between pupils.
Third, change the thought patterns of those who work in the education system, as well as the architecture of the places where they work. The philosopher Michel Foucault already noted profound resonance between the spatial and temporal organisation of factories and schools. Inventive disruptive infrastructures will, in turn, have to match these new disruptive superstructures. What will the schools of tomorrow look like? Where will they be? Some, like Sugata Mitra in India, see them in the cloud; others see them in the middle of nature, like the forest schools that are flourishing in Europe. But why don’t we ask our children and young people what they think? Creativity is after all their area of expertise, no?
In 2019,
Europe proclaimed the advent of 5G, a new communication technology that would
disrupt the way businesses and individuals interact with each other. Four years
later, the deployment of the necessary infrastructure is far from complete, and
companies at the forefront of its development appear to be taking things easy. Why?
Because return on investment is unclear.
However, some
experts see signs indicating that the current landscape is about to shift. New
types of companies, born from new technologies such as augmented reality,
autonomous devices or remote working, are demanding more data at faster rates and
with new functionalities.
This
gives rise to some questions: what is the enabler that could accelerate 5G penetration?
Who will benefit most from 5G? How will investors recover their investment?
1. Are we facing the true shifting point for 5G adoption?
Ericsson estimates a significant increase in 5G subscriptions from now until 2028, driven by the availability of devices from several vendors, the reduction of prices and the early deployment of 5G in China. This massive worldwide adoption will lead to:
(i) an increase in the number of users to five billion (80% of traffic as video); (ii) a more balanced distribution of users across continents; (iii) mobile traffic data increasing from 15 EB per month to 225 EB per month worldwide.
Figure 1 – 5G penetration rate by region
Figure 2 – Breakdown of 5G subscription by regions
Figure 3 – 5G mobile traffic data worldwide
This shift must be fuelled by the many advantages of 5G over 4G, which rely on the increased upload/download speed – up to 1 GB per second – its spectrum, capacity and latency.
Table 1 – Overview of 5G characteristics vs 3G and 4G
Another advantage
lies in its energy efficiency; figures prove that 5G technology consumes only 10%
of the power used by 4G.
Further advantages
include (i) reduced interference, (ii) improved security and (iii) connection
to newly developed products.
2. What is impeding the deployment of its infrastructure in Europe?
It is difficult to provide an accurate and up-to-date number of base stations currently in operation in Europe because the deployment of 5G networks is ongoing and varies significantly country to country.
Table 2 – 5G Band types and characteristics
Several external
factors have impeded a robust deployment, factors that can be segmented into
two categories.
Business factors:
• The unclearmonetisation strategy for network developers, with no concrete business case providing a sufficient return.
• A weaker tech ecosystem pushing for an accelerated adoption of 5G to serve their needs (e.g. immersive technologies).
• Challenging access to hardware, particularlysincethe US government blocked global chip supply to the blacklisted telecommunications giant Huawei.
• The slow replacement of old generation devices.
Political and
administrative factors:
• The highly fragmented European market,with hundreds of operators – in the US or China, there are three large operators with the critical mass to invest.
• Higher European administrative and bureaucratic hurdles to network providers.
• A lack of process standardisation – operators struggle to find deployment synergies due to the high level of competition in each local market.
• A weaker political push versus Asia where technologies are leveraged to monitor and control populations.
3. What is Europe doing to overcome these challenges?
The deployment of 5G in the EU is developing heterogeneously across its members. By the end of 2020, 23 member states had activated commercial 5G services and met the goal of having at least one major city with 5G accessibility. Nevertheless, not all national 5G broadband plans include references to the EU’s 2025 and 2030 ambitions.
Figure 5 – 5G roll-out in Europe
The European Commission has estimated that 44% of all mobile connections in Europe will be under 5G in three years. This objective has led the Commission to put in place many initiatives to accelerate the roll-out of 5G in Europe, proactively searching for solutions and working to enhance deployment. These initiatives have contributed to the fact that by the end of 2021, the EU had installed more than 250k 5G base stations, covering 70% of its population. However, this coverage lacks much of the functionality and data transfer speed attributed to the new technology.
4. Is 5G a lucrative business?
The
primary issue for operators is how to recover their investment. The way in
which operators monetise their services is expected to change from their
traditional business models; hence, monetisation strategies and 5G roll-out
business cases will need to be revisited.
For
example, the investment required to upgrade existing networks to 5G networks will
amount to c. €5 billion in Spain alone, plus an additional €2 billion estimated
by the Spanish government to drive the roll-out of 5G between 2021 and 2025. A
total amount, therefore, of €7 billion.
Operators
are aware of the inevitable increase in operating and capital expenditure.
However, there is no clear path to making the investment profitable. For operating
expenses, the collaboration of neutral infrastructure operators is crucial, as they
represent (i) enablers of a traditional 5G deployment, (ii) the perfect
partners for the scenario of large data consumption and ultra-high speed rates
and (iii) an essential resource to make these investments less prohibitive for
operators. For capital expenditure, operators are experimenting with different
options to seek a return throughout the value chain, some of which take them far
from their comfort zones. For example, Telefonica is studying the monetisation using
APIs, which enables users to pay for different configurations of speed, latency
and service quality,
In addition, network operators are looking for alternatives through partnerships with new technology providers to: • better understand each other’s needs and capabilities; • allow manufacturers to improve efficiency; • avoid commoditisation and provide high value-added services around SaaS, PaaS or NaaS; • better share earnings from these new services.
5. Who might be the “winners” of a successful 5G deployment?
Figure 6 – 5G value chain and its main players
While network
operators are struggling to find a way to monetise their investments, other players
are poised to extract value from the deployment of 5G:
• Tower/infrastructure providers – the construction of a large number of towers and base stations may be necessary in certain regions. However, the costs of dismantling obsolete infrastructure should also be considered.
• OTTs and other service providers –suppliers ofautonomous driving, smart cities, Industry 4.0, telehealth, smart farming or entertainment, for example.
• Equipment providers – component and module suppliers, machinery and industrial automation companies and manufacturing companies for visual quality checks.
6. Conclusion
Tower
constructors and network operators are heading towards a new era of
communications, but the challenges they are facing are significant. The current
low level of demand is impeding the adoption of this new technology, and some investors
feel it does not justify the huge investment.
Meanwhile,
technology costs have increased in what has become a global competition for
hardware and chips. European players face fierce and imbalanced competition from
Chinese and US operators that benefit from better equipment sourcing, more
favourable administrative frameworks, higher economies of scale due to market
consolidation and higher demand fostered by their dynamic tech ecosystems.
On the one hand, building infrastructure requires
scale and long-term economic vision; on the other, technological disruption requires
agility. Today, the European ecosystem has proved to be weak when faced with this
paradox.
However, European
institutions have started to realise the extent of this gap and have begun to show
significant support for the technology. Nevertheless, this will not be enough for
its deployment, and private operators must raise their game.
For 5G to become a reality in Europe, all stakeholders will have to collaborate, sharing their knowledge and future profits. This means designing, modelling and implementing major strategic alliances between European operators. This also means sharing investments and designing smart profit sharing with downstream tech ecosystem players benefitting from 5G expansion.
In light of the
energy crisis and sovereignty challenges that have recently emerged, nuclear power
is again the subject of much interest as a form of low-carbon energy. But what
will be the nuclear energy of tomorrow? Next to conventional nuclear power,
which remains the prerogative of governments and government-assisted bodies,
numerous privately financed start-ups have begun operations in the last few
years in this industry, like NAAREA (an acronym of Nano Abundant
Affordable Resourceful Energy for All).
Through its
XS(A)MR (extra-small advanced modular reactor) project, NAAREA aims to design
and develop fourth-generation low power molten salt reactors (< 50 MW).
There are
multiple advantages to this technology – initially developed in the 1950s and
1960s – according to the two founders, Jean-Luc Alexandre and Ivan Gavriloff.
First, this type of reactor, which works by dissolving the nuclear fuel in salt
melted at a high temperature (700°C), is safer thanks to the fission regulation
systems made possible as a result of its smaller size. Further, there is no
drain on natural resources because the reactor uses fuel from existing reserves
of nuclear waste and thorium (the concept of waste-to-energy), thus limiting
any dependence on uranium suppliers. In addition, the waste resulting from the
process is very limited, reducing the risk of dispersal and issues linked to
storage. But the main advantage of this innovation, and also what
differentiates it from other major projects in the US or China, lies in its
very small size. With a highly compact volume, not far from the size of a
shipping container, the reactor can be deployed in an independent and
decentralised way, making it possible to be closer to industrial consumers,
without needing to reinforce current distribution networks or access to water.
Ultimately, this type of reactor should ensure a more affordable energy price
than that resulting from fossil fuels and renewable energy for an autonomy of
up to 10 years.
NAAREA’s
objective is to produce and operate directly its micro power plants in large
quantities and to sell the energy produced to industrials. This positioning as
a service provider is much more engaging and therefore reassuring for nuclear
safety authorities, as it avoids the proliferation of nuclear operators. Here
again, it differs from the numerous other competing projects that hope to
provide the solution.
In exchange, this project requires significant investment. Today, the start-up has already raised tens of millions of euros from family offices and has built partnerships with major industry players: the CEA, the CNRS, Framatome, Orano, Dassault Systèmes, Assystem. Indeed, with Assystem, it is in the process of producing the digital twin of its reactor, scheduled for summer 2023. Participating notably in the ‘Réacteurs nucléaires innovants’ call for projects as part of the ‘France 2030’ investment plan, NAAREA hopes to raise hundreds of millions of euros more to be able to build its prototype by 2027 and its first unit by 2029.
In his 1977
novel The Gasp, Romain Gary already raises the issue of access to a cleaner
source of energy. Gary imagines nothing less than recovering the souls of the
deceased as fuel for machines, leaving humanity faced with the question of what
it is willing to accept morally to pursue its growth and maintain its lifestyle.
And Gary concludes: ‘The paradox of science is that there is only one response
to these misdeeds and perils; even more science.’
Driven by the
broad awareness of environmental challenges, the world of infrastructure is experiencing
multiple revolutions and now finds itself in the spotlight on both the
political and economic stages. From being the poor relation in terms of
investment 25 years ago, infrastructure is now the focus of many expectations.
We see three
major challenges to be met:
• The speed of deployment of a realistic decarbonised energy mix, adapted to local constraints, in which nuclear plays an important role as a primary source where geographically possible. The myriad new promising projects, covering the whole value chain from production to storage and distribution, will find specialised funds revising their investment scopes. Cooperation between political decision-makers and public and private actors will also be a determining factor to accelerate decarbonisation.
• The adaptation of distribution networks (hydrogen and electric) must go hand-in-hand with the adaptation (conversion) or the production of rolling stock in the automotive, railway and later aeronautical industries. Manufacturers and network managers must better cooperate to avoid the mutual wait-and-see attitudes that delay the deployment of solutions.
• The volume of projects necessary and the cash piles available mean that lenders need to rethink their financing execution processes to make them faster and smoother.
We have not forgotten
the importance of waste treatment, water treatment and telecommunication
networks. These critical sectors are facing their own technological challenges,
but they are highly dependent on the quality of energies that they can consume
or on the transport networks made available to them.
The world of infrastructure has never needed innovation more!
In this edition of the Economic Brief, we will analyse economists’ forecasts for economic growth in 2023. Comparing visions for quarter 1 with those for quarter 4, we will consider how growth profiles for Western economies will evolve over the course of the year and look into reasons for any particular developments. We will also consider the priorities of the central banks, notably the Federal Reserve, and the actions it may take for the year.
Dans notre septième édition de Accuracy Talks Straight, Delphine Sztermer et Nicolas Bourdon font le point sur l’infrastructure et ses enjeux, avant de laisser René Pigot nous présenter Naarea, une start-up qui a pour ambition de concevoir et développer des réacteurs de 4ème génération à sels fondus et de faible puissance. Nous analyserons ensuite le marché de la 5G en Europe avec Ignacio Lliso et Alberto Valle. Sophie Chassat, Philosophe et associée chez Wemean, nous présentera ensuite les superstructures. Nous évaluerons le risque avec l’exemple des concessions autoroutières avec Bruno Husson, associé honoraire d’Accuracy. Enfin, nous nous focaliserons sur l’année 2023 avec Hervé Goulletquer, Senior Economic Advisor.
Dans « Charge d’âme » paru en 1977, Romain Gary pose déjà le problème de l’accès à une ressource énergétique moins polluante. Gary n’imagine rien d’autre que la récupération des âmes des défunts comme carburant pour nos machines. L’humanité va donc devoir s’interroger sur ce qu’elle est prête à accepter moralement pour poursuivre sa croissance et maintenir ses habitudes de vie. Et Gary de conclure sa fable philosophique : « Le paradoxe de la science [..] est qu’il n’y a qu’une réponse à ses méfaits et ses périls ; encore plus de science ».
Porté par une large conscience de l’enjeux environnemental, le monde de l’infrastructure est en train de vivre de nombreuses révolutions. Les infrastructures sont désormais sur le devant de la scène politique et économique. De parent pauvre de l’investissement il y a 25 ans, elles concentrent désormais de nombreuses attentes.
Nous entrevoyons ainsi trois défis majeurs à relever :
• La vitesse de déploiement d’un mix énergétique décarboné réaliste et adapté aux contraintes locales dans lequel le nucléaire comme source primaire prend une place importante lorsqu’il est géographiquement possible. La multitude de nouveaux projets prometteurs implique une révision des périmètres d’investissement des fonds spécialisés. Ils concernent l’ensemble de la chaîne de valeur depuis la production, le stockage jusqu’à la distribution. La coopération entre décideurs politiques, acteurs publics et privés sera déterminante pour accélérer la décarbonation.
• L’adaptation des réseaux de distribution (Hydrogène et électrique) doit aller de pair avec l’adaptation (conversion) ou la production des matériels roulants dans l’automobile, le ferroviaire et plus tard l’aéronautique. Les manufacturiers et gestionnaires de réseaux doivent mieux coopérer pour éviter les at tentismes réciproques qui freinent le déploiement de solutions.
• Le volume de projets nécessaires et l’importante masse monétaire disponible impliquent pour les prêteurs de repenser leurs processus d’exécut ion des financements pour gagner en rapidité et fluidité.
Nous n’oublions pas l’importance des filières de traitement des déchets, de traitement et transpor t de l’eau, des réseaux de télécommunication. Ces secteurs cruciaux ont leurs propres challenges technologiques mais ils sont très dépendants de la qualité des énergies qu’ils pourront consommer ou des réseaux et moyens de transport mis à leur disposition.
Alors oui, les infrastructures n’ont jamais eu autant besoin d’innovations !
Face à la crise énergétique et aux enjeux de souveraineté qui se sont révélés, le nucléaire connaît actuellement un net regain d’intérêt en tant qu’énergie décarbonée. Mais quel sera le nucléaire de demain ? A côté du nucléaire conventionnel qui reste l’apanage d’acteurs étatiques ou paraétatiques, de nombreuses start-ups sous financements privés se sont lancées ces dernières années dans cette industrie, à l’instar de NAAREA (acronyme de “Nano Abundant Affordable Resourceful Energy for All”).
A travers son projet de XS(A)MR (“extra-small advanced modular reactor” en anglais), NAAREA a pour ambition de concevoir et développer des réacteurs de 4ème génération à sels fondus et de faible puissance (< 50 MW).
Les avantages de cet te technologie – initialement mise au po int dans les années 1950-1960 – sont multiples selon ses deux fondateurs (Jean-Luc Alexandre et Ivan Gavriloff). Tout d’abord, un tel réacteur, dont le fonctionnement consiste à dissoudre le combustible nucléaire dans du sel fondu à haute température (700°C), est plus sûr grâce aux systèmes de régulation de la fission, autorisés par la moindre taille du réacteur. En outre, aucun prélèvement n’est effectué sur les ressources naturelles car le réacteur utilise les combustibles issus des réserves existantes de déchets nucléaires et de thorium (concept de Waste-to-Energy), limitant d’autant les liens de dépendances avec des fournisseurs d’uranium. A cela s’ajoute que les déchets issus du process seront très restreints, réduisant par là même le risque de dispersion et les problématiques liées au stockage. Mais l’atout principal de cette innovation, et aussi ce qui la différencie d’autres projets d’envergure aux Etats-Unis ou en Chine, réside dans sa très petite taille. Avec un volume ultra compact, s’approchant d’un container, le réacteur peut être déployé de manière indépendante et décentralisée, permettant d’être au plus proche des consommateurs industriels, sans nécessiter de renforcement des réseaux de distribution actuels ni d’accès à l’eau. In fine, un tel réacteur devrait assurer un prix de l’énergie en sortie de réacteur plus abordable que celle issue des énergies fossiles et renouvelables pour une autonomie pouvant aller jusqu’à 10 ans.
L’objectif de NAAREA est de produire et d’exploiter, ellemême, ses micro-centrales en grande série et de vendre l’énergie produite aux industriels. Ce positionnement en tant que fournisseur de services est de ce fait nettement plus engageant et donc rassurant pour les autorités de sûreté nucléaire car il évite la multiplication des exploitants nucléaires. Là encore, il diffère des nombreux autres projets concurrents qui s’en tiennent à fournir la solution.
En contrepartie, ce projet nécessite de lourds investissements. Aujourd’hui, la start-up a déjà levé plusieurs dizaines de millions d’euros auprès de family offices et a construit des partenariats avec des acteurs majeurs de l’industrie : le CEA, le CNRS, Framatome, Orano, Dassault Systèmes, Assystem. C’est d’ailleurs avec ce dernier qu’elle est en train de réaliser le jumeau numérique de son réacteur, prévu pour l’été 2023. Participant notamment à l’appel à projets “ Réacteurs nucléaires innovants ” du plan d’investissement « France 2030 », NAAREA espère encore lever plusieurs centaines de millions pour pouvoir construire son prototype d’ici à 2027, puis sa première unité d’ici à 2029.
La 5G en Europe : Le chemin est parsemé d’embûches
En 2019, l’Europe a proclamé l’avènement de la 5G, une nouvelle technologie qui allait bouleverser la manière dont les entreprises et les individus communiquent les uns avec les autres. Quatre ans plus tard, le déploiement de l’infrastructure requise est loin d’être terminé et les sociétés pionnières du secteur semblent marquer le pas.
Pourquoi ? Parce que le retour sur investissement est incertain.
Quoi qu’il en soit, certains experts identifient des signes de revirement imminent du paysage actuel. Les nouvelles technologies et pratiques telles que la réalité augmentée, les appareils autonomes ou le travail à distance ont besoin de plus de données, de plus de rapidité et de nouvelles fonctions.
Dans ce contexte, les questions suivantes se posent : quel moteur pourrait-il accélérer la pénétration de la 5G ? Qui profitera le plus de la 5G ? Dans quelle mesure et proportion, les investisseurs recouvreront-ils leur investissement ?
1. Sommes-nous à l’aube d’un véritable revirement pour l’adoption de la 5G ?
Ericsson prévoit une nette augmentation des abonnements à la 5G d’ici à 2028 sur fond de mise à disposition d’appareils de plusieurs opérateurs, de baisse des prix et de déploiement précoce de la 5G en Chine. Cette adoption massive à l’échelle mondiale entraînera :
(i) une envolée du nombre d’utilisateurs à cinq milliards (80 % d’entre eux utilisant surtout la vidéo) ; (ii) une répartition des utilisateurs plus équilibrée entre les continents ; (iii) le trafic de données mobiles passant de 15 EO1 par mois à 225 EO par mois à l’échelle mondiale.
ILLUSTRATION 1 – Taux de pénétration de la 5G par région
ILLUSTRATION 2 – Répartition des abonnements à la 5G par région
ILLUSTRATION 3 – Trafic de données mobiles 5G à l’échelle mondiale
Ce revirement devrait découler des nombreux avantages de la 5G par rapport à la 4G. Citons à cet égard la vitesse de téléchargement supérieure – jusqu’à 1 GO par seconde – son spectre, sa capacité et sa latence.
TABLEAU 1 – Aperçu des caractéristiques de la 5G par rapport à la 3G et la 4G
L’efficacité énergétique de la 5G est un autre atout qui mérite d’être mentionné ; les études montrent que – à iso-débit – la technologie 5G ne consomme que 10 % de l’électricité nécessaire au fonctionnement de la 4G.
Les autres avantages comprennent (i) des interférences réduites, (ii) une sécurité accrue et (iii) une connexion avec les produits nouvellement développés.
2. Quels sont les obstacles au déploiement de son infrastructure en europe ?
Il est difficile de déterminer le nombre précis et actualisé des stations émettrices-réceptrices actuellement actives en Europe car le déploiement des réseaux de 5G est en cours et varie significativement d’un pays à l’autre.
TABLEAU 2 – Types de bande 5G et caractéristiques
PLUSIEURS FACTEURS EXTERNES ONT FREINÉ SON DÉVELOPPEMENT JUSQU’À MAINTENANT :
Facteurs commerciaux :
• La stratégie de monétisation incertaine pour les développeurs de réseaux en l’absence d’un modèle d’affaires concret incluant un rendement suffisant.
• Un écosystème technologique plus faible en Europe moins à même de pousser l’adoption accélérée de la 5G pour satisfaire ses besoins (p. ex. technologies immersives).
• Des difficultés d’accès au matériel informatique, surtout depuis que le gouvernement américain a bloqué l’approvisionnement mondial de Huawei, le géant des télécommunications sur liste noire, en microprocesseurs.
• La lenteur du remplacement des appareils de générations antérieures.
Facteurs politiques et administratifs :
• Le marché européen est très fragmenté et comprend des centaines d’opérateurs, tandis que les Etats-Unis ou la Chine sont couverts par trois opérateurs majeurs chacun pour investir.
• Des obstacles administratifs et bureaucratiques plus élevés pour les fournisseurs de réseaux en Europe.
• Un manque de standardisation des processus : les opérateurs ont du mal à identifier les synergies en matière de déploiement en raison de l’âpre concurrence sur chaque marché local.
• Une impulsion politique moins prononcée qu’en Asie où les technologies sont utilisées pour surveiller et contrôler la population.
3. Que fait l’europe pour surmonter ces obstacles ?
Le déploiement de la 5G dans l’UE est hétérogène pour ses différents membres. À la fin 2020, 23 États membres avaient adopté les services commerciaux de 5G et comptaient au moins une grande ville avec accès à la 5G. Quoi qu’il en soit, tous les projets nationaux de large bande passante 5G n’incluent pas des références aux objectifs 2025 et 2030 de l’UE.
ILLUSTRATION 5 – Déploiement de la 5G en Europe
La Commission Européenne a estimé que 44 % de l’ensemble des connexions mobiles en Europe se feront via la 5G d’ici trois ans. Guidée par cet objectif, elle a lancé nombre d’initiatives visant à accélérer le déploiement de la 5G en Europe, recherchant ainsi activement des solutions et s’efforçant d’améliorer le déploiement. Grâce à ces initiatives, entre autres, l’UE avait installé à la fin 2021 plus de 250 000 stations émettrices-réceptrices 5G, couvrant ainsi 70 % de sa population. Cette couverture est toutefois privée d’une grande partie des fonctions et de la vitesse de transfert des données associées à la nouvelle technologie.
4. La 5G est-elle un créneau lucratif ?
Pour les opérateurs, le plus gros problème consiste à rentabiliser leur investissement. Ils devront probablement se détacher de leurs modèles d’affaires traditionnels pour monétiser leurs services. Aussi les stratégies de monétisation et les analyses du déploiement de la 5G devront elles être réexaminées.
Par exemple, l’investissement nécessaire à la conversion des réseaux existants en réseaux 5G s’élèvera à environ 5 milliards d’euros en Espagne seulement, plus 2 milliards d’euros supplémentaires pour le déploiement de la 5G entre 2021 et 2025, selon les estimations du gouvernement espagnol. Un montant total de 7 milliards d’euros.
Les opérateurs ont bien conscience de l’inévitable hausse de leurs coûts d’exploitation et d’investissement. Mais le modèle qui rendra leurs investissements profitables reste encore incertain. La collaboration avec les exploitants d’infrastructures neutres est essentielle pour permettre la mise en place d’effets d’échelle et abaisser les coûts unitaires d’exploitation. Concernant les invest issements, les opérateurs testent de
nouveaux métiers et modèles dans le but de rentabiliser leurs investissements au-delà de leur zone de confort traditionnelle. Telefonica travaille par exemple à l’hypersegmentation de son offre via la monétisation d’APIs permettant aux utilisateurs de moduler le débit, la latence et la qualité de service.
Les opérateurs de réseaux travaillent également à la recherche de solutions alternatives sous forme de partenariats avec des acteurs Tech.
Les objectifs ?
• Mieux comprendre leurs capacités et besoins mutuels ; • Permettre aux fabricants d’améliorer l’efficacité de leurs équipements ; • Eviter la standardisation et offrir des services à valeur ajoutée en SaaS, PaaS ou NaaS ; • Mieux partager les revenus tirés de ces nouveaux services.
5. Qui pourraient être les « gagnants » d’un déploiement réussi de la 5G ?
ILLUSTRATION 6 – La chaîne de valeur 5G et ses principaux acteurs
Si les opérateurs de réseaux peinent à trouver des moyens de monétiser leurs investissements, d’autres acteurs sont bien placés pour profiter du déploiement de la 5G :
• Les fournisseurs de tours/d’infrastructures : la construction d’un grand nombre de tours et de stations émettrices-réceptrices pourrait être nécessaire dans certaines régions. Les coûts du démembrement des infrastructures obsolètes doivent toutefois être pris en compte.
• Les prestataires de services OTT et autres, tels que la conduite autonome, les villes intelligentes, l’industrie 4.0, la télésanté, l’agriculture intelligente ou les loisirs.
• Les fournisseurs d’équipements : les fournisseurs de composants, les spécialis tes de l’automatisation industrielle, les spécialistes de l’optique connectée.
6. Conclusion
Les constructeurs de tours et opérateurs de réseaux avancent vers une nouvelle ère de la communication, mais les défis auxquels ils font face sont significatifs. La faiblesse actuelle de la demande est un obstacle à l’adoption de cette nouvelle technologie et certains investisseurs estiment qu’elle ne justifie pas un investissement aussi important.
Parallèlement, les coûts technologiques ont augmenté dans un contexte de concurrence mondiale forte sur les composants informatiques. Les acteurs européens font face à une concurrence à la fois âpre et déséquilibrée venant des opérateurs chinois et américains qui bénéficient d’un meilleur accès aux équipements, de cadres administratifs plus favorables, d’économies d’échelle plus prononcées grâce à la consolidation du marché et à une demande accrue dopée par le dynamisme de leurs écosystèmes technologiques. La construction de l’infrastructure requiert, d’une part, une vision économique à long terme et des moyens exceptionnels, mais la révolution technologique nécessite, d’autre part, une grande agilité dans l’exécution.
À l’heure actuelle, l’écosystème européen ne s’est pas montré capable d’associer ces deux aspects.
Les institutions européennes ont néanmoins fini par prendre conscience de cet écart et commencé à soutenir les groupes du secteur. Leur assistance ne suffira pas et les investisseurs privés devront également redoubler d’efforts.
Pour que la 5G devienne réalité en Europe, toutes les par t ies p renantes doivent collaborer, partager leurs connaissances et les bénéfices futurs. Citons à cet égard la conception, la modélisation et la mise en oeuvre d’alliances stratégiques majeures entre opérateurs européens. Le partage des investissements et la conception d’un partage intelligent des bénéfices avec l’écosystème technologique aval bénéficiant de l’expansion de la 5G semblent eux aussi indispensables.
Sophie Chassat Philosophe, Associée chez Wemean
Superstructures de rupture
Si les innovations techniques et technologiques requièrent des infrastructures de rupture, nos sociétés vont également avoir besoin de se doter de « superstructures de rupture ». Qu’est-ce qu’une superstructure ? L’équivalent non matériel de l’infrastructure, soit : les idées d’une société et leurs modalités d’expression (art, philosophie, morale), ses institutions étatiques, mais aussi culturelles et scolaires.
C’est Karl Marx qui invente ce couple de concepts pour en montrer la profonde codétermination : les superstructures idéologiques d’une société dépendent étroitement de ses infrastructures matérielles et économiques, et vice-versa. Par exemple, la révolution industrielle a fait évoluer l’infrastructure (innovations techniques, mécanisation, division du travail…) comme la superstructure (libéralisme, rationalisme, morale bourgeoise…), lesquelles se sont renforcées mutuellement.
De quelles superstructures de rupture allons-nous avoir besoin pour accompagner les mutations matérielles et économiques de notre temps ? Si nous n’en savons rien avec précision, ce que nous savons d’ores et déjà, c’est que nos superstructures actuelles ne conviennent plus. C’est le point de départ d’un excellent TedX de Sir Ken Robinson sur nos systèmes éducatifs : le paradigme sur lequel ils reposent est encore celui de l’âge industriel.
En effet, notre système éducatif a été conçu au 19e siècle dans le contexte économique de la révolution industrielle. Logiquement, l’école est ainsi organisée de façon à préparer à ce système de production : sonneries de cloches, installations séparées, matières spécialisées, programmes d’études standardisés, tests standardisés. C’est ce que Sir Ken Robinson appelle « the factory model of education » (le modèle industriel de l’éducation). Ce système éducatif hérité de l’âge industriel a un défaut en particulier : il tue la créativité et la pensée divergente. Or notre époque, une des plus stimulantes de l’histoire, en a plus que jamais besoin ! Raison pour laquelle il est nécessaire d’effectuer un changement radical de paradigme en ce domaine, et cela passe par trois étapes. D’abord, détruire le mythe selon lequel il y a une division entre l’académique et le non-académique, entre le théorique et le concret : en autres termes, cesser de séparer l’enseignement de la vie. Ensuite, reconnaître que la plupart des grands apprentissages se font collectivement – car la collaboration est la base de la progression – plutôt qu’encourager la concurrence individuelle entre les élèves.
Enfin, changer les habitudes de pensée de ceux qui travaillent dans le système éducatif comme les architectures des lieux qu’ils occupent. Le philosophe Michel Foucault remarquait déjà les profondes résonances entre les organisations spatiales et temporelles des usines et des écoles. Aux nouvelles superstructures de rupture devront ainsi à leur tour correspondre d’inventives infrastructures de rupture. À quoi ressembleront les écoles de demain ? Où seront-elles ? Certains les imaginent dans le cloud comme Sugata Mitra en Inde, d’autres en pleine nature comme ces forest schools qui fleurissent en Europe. Et si nous le demandions à nos enfants et à nos jeunes ? La créativité est leur génie propre, non ?
Bruno Husson Associé honoraire, Accuracy
Temps et risque dans l’évaluation d’entreprise, l’exemple des concessions autoroutières
La valeur d’un actif peut être appréhendée aisément à travers les prix observés sur un marché où des actifs comparables sont échangés. C’est l’approche analogique de l’évaluation. Une solution alternative consiste à répliquer dans un modèle d’évaluation la façon dont ces prix se forment sur le marché. C’est l’approche intrinsèque de l’évaluation et le principe fondateur de la méthode DCF, méthode phare de cette seconde approche de l’évaluation.
Le point de départ de l’approche intrinsèque est la définition du concept de valeur financière selon lequel la valeur d’un actif repose sur les flux de trésorerie que le détenteur de cet actif est susceptible de percevoir dans le futur.
Comme ces flux interviennent à des dates échelonnées dans le temps et sont soumis à des aléas, le modèle doit nécessairement intégrer le comportement de l’investisseur à l’égard de deux paramètres : le temps et le risque. La théorie financière nous indique comment intégrer ces deux paramètres isolément, c’est-à-dire intégrer le temps sans considération du risque et intégrer le risque dans le cadre d’un modèle monopériodique (i.e. sans considération du temps).
S’agissant de la prise en compte du temps, les modèles utilisent la technique de l’actualisation, c’est-à-dire l’hypothèse communément acceptée selon laquelle l’individu exprime une préférence pour le présent. Sur les marchés financiers où, à travers l’acquisition de titres de créance considérés comme sans risque (bons du Trésor ou emprunts d’État), on échange implicitement du temps (i.e. une somme d’argent détenue aujourd’hui contre une somme d’argent disponible à une date ultérieure), le taux de préférence des individus pour le présent se traduit logiquement par l’existence d’un taux d’intérêt positif.
Ce taux d’intérêt sans risque matérialise un principe de base de la finance : « la valeur temporelle de l’argent » (un euro d’aujourd’hui n’est pas équivalent à un euro de demain, car l’euro perçu aujourd’hui, placé au taux d’intérêt sans risque, donnera plus d’un euro demain). Fondée sur ce principe, la technique de l’actualisation permet d’agréger des flux (supposés sans risque) intervenant à des dates échelonnées dans le temps, en les ramenant à la date d’aujourd’hui par le truchement du taux d’intérêt, et de déterminer ainsi la valeur de l’actif associée à cette chronique de flux.
S’agissant de la prise en compte du risque, le modèle couramment utilisé par les évaluateurs est le Modèle d’Evaluation des Actifs Financiers (Medaf). Ce modèle repose sur une segmentation du risque en deux composantes : (i) le risque spécifique (ou risque diversifiable), que le détenteur de l’actif peut éliminer en diversifiant son patrimoine, (ii) le risque systématique (ou risque non diversifiable), qui reste supporté par l’investisseur dont le patrimoine est parfaitement diversifié. Selon la formule du MEDAF, la rentabilité exigée sur un actif financier est égale au taux d’intérêt sans risque plus une prime de risque qui ne dépend que du risque systématique (le marché ne rémunère pas la fraction diversifiable du risque). Grâce au Medaf, on sait calculer la valeur d’un actif générant un flux risqué sur une période unique : c’est le flux moyen (ou flux « espéré ») actualisé au taux de rentabilité donné par la formule. Les deux composantes du risque de l’actif sont bien prises en compte : le risque spécifique au travers du calcul du flux espéré (soit, en théorie, la moyenne des flux anticipés dans les différents scénarios possibles, pondérée par la probabilité d’occurrence desdits scénarios), et le risque systématique via l’actualisation du flux espéré à un taux « risqué » intégrant une prime de risque.
Cependant, dans la pratique, il faut bien prendre en compte le fait que les évaluations portent sur des entités générant des flux sur plusieurs périodes (voire sur un horizon infini), ce qui conduit les évaluateurs à s’écarter du cadre théorique évoqué ci-dessus pour intégrer les paramètres temps et risque dans le même modèle (autrement dit, conjuguer le risque avec le temps).
L’intégration usuelle du risque dans le taux d’actualisation peut conduire à sous-estimer notablement l’entité évaluée : l’exemple des concessions autoroutières.
La démarche usuellement retenue par les praticiens pour intégrer le risque consiste à transposer le Medaf dans un cadre multipériodique. Concrètement, les prix du temps et du risque (systématique) sont intégrés simultanément, sur la durée de vie des entités évaluées, via l’actualisation des flux futurs espérés à un taux risqué unique, égal au taux d’intérêt sans risque majoré de la prime de risque (constante) issue de la formule du Medaf.
La démarche alternative intègre successivement (et non simultanément) les paramètres temps et risque : le paramètre risque, dans un premier temps, via la détermination de « flux équivalents certains » et le paramètre temps, dans un second temps, via l’actualisation de ces flux au taux d’intérêt sans risque. Les flux équivalents certains intègrent la totalité du risque et sont donc inférieurs aux flux espérés qui n’intègrent que la fraction diversifiable du risque.
La difficulté de la démarche alternative réside dans la déterminat ion des coefficients d’ajustement à appliquer aux flux espérés pour obtenir les flux équivalents certains.
Ces coefficients peuvent être estimés dans le cadre théorique du Medaf, mais la formule de calcul, plutôt alambiquée, s’avère inapplicable dans la pratique. Soulignons par ailleurs que, dans le cadre d’une évaluation d’entreprise, l’évaluateur doit d’abord apprécier le degré d’optimisme du plan d’affaires, avant même de s’interroger sur les modalités d’intégration du risque.
S’il estime disposer d’un plan d’affaires représentatif du scénario moyen associé aux flux espérés, il pourra soit actualiser ces flux au taux risqué du Medaf, soit déterminer des flux équivalents certains et les actualiser ensuite au taux d’intérêt sans risque. S’il estime disposer d’un plan d’affaires plutôt conservateur, voire pessimiste, l’évaluateur ne peut met tre en oeuvre la démarche usuelle sans ajuster les flux du plan à la hausse, mais il peut en revanche opter directement pour la démarche alternative en considérant que les flux du plan donnent une estimation raisonnable des flux équivalents certains.
La démarche usuel le d’intégration du risque s’avère critiquable, car en utilisant la technique de l’actualisation pour conjuguer le risque avec le temps (alors que cette technique n’est a priori destinée qu’à prendre en compte la valeur temporelle de l’argent), elle formule implicitement une hypothèse forte sur l’évolution du risque systématique en supposant que ce risque augmente fortement avec le temps. La démarche alternative apparaît plus solide, car en traitant séparément les problématiques relatives à l’intégration du temps et du risque, elle ne formule aucune hypothèse a priori sur l’évolution du risque, ce qui permet de traiter de façon rigoureuse tous les cas d’évaluation et notamment l’évaluation d’activités qui bénéficient d’une bonne visibilité sur une longue durée (par exemple les projets d’infrastructure) et pour lesquelles l’hypothèse d’une augmentation croissante du risque avec le temps est particulièrement contestable.
A titre d’illustration, considérons une concession autoroutière susceptible de générer en moyenne un flux annuel de 800 M€ sur une durée de 30 ans (l’inflation est supposée nulle). Sur la base d’un taux d’intérêt (réel) sans risque de 1,5%, d’un coefficient bêta d’activité de 0,5 et d’une prime de risque de marché de 5,5%, le taux de rentabilité donné par la formule du Medaf s’élève à 4,25% et la valeur de la concession selon la démarche usuelle d’intégration du risque ressort à 13 423 M€ (valeur actuelle du flux annuel de 800 M€ au taux de 4,25%). Compte tenu de la bonne visibilité sur le chiffre d’affaires qui, malgré une base de coût relativement fixe, confère à l’activité un faible risque systématique (attesté par le coefficient bêta de 0,5), il apparait raisonnable de fonder la détermination des flux équivalents certains sur un coefficient d’abattement constant de 0,15. Sur cette base, la valeur de la concession selon la démarche alternative ressort à 16 331 M€ (valeur actuelle du flux annuel équivalent certain de 680 M€ au taux d’intérêt sans risque de 1,5%). L’écart avec l’estimation donnée par la démarche usuelle est d’environ 22% et provient des hypothèses implicites formulées sur l’évolution du risque dans le temps. Avec la démarche alternative, le risque est supposé invariant (l’abattement pratiqué sur le flux espéré au titre du risque est de 15% quelle que soit l’année considérée), alors qu’avec la démarche usuelle, le risque augmente fortement avec le temps (l’abattement pratiqué au seul titre du risque passe ainsi de 10% en année 4 à 21%, 31%, 40% et 50% en années 9, 14, 19 et 26, soit une progression très importante que le profil de risque de l’activité ne saurait justifier).
En conclusion, utiliser la démarche usuelle d’intégration du risque pour l’évaluation d’activités bénéficiant d’une bonne visibilité sur une longue durée est critiquable et peut conduire à des sous-évaluations notables.
Les économies émergentes et en développement (plus avant dans ce « papier », nous les appellerons MEED, pour marchés émergents et économie en développement) ont difficilement traversé la succession de crises vécues depuis 3 ans : sanitaire (la COVID), géopolitique (la guerre russe en Ukraine, les tensions dans les mers de Chine et la rivalité sino-américaine croissante), économique (le retour de l’inflation) et financière (la hausse des taux d’intérêt et du dollar dans un contexte d’endettement, principalement public, qui appelle à la vigilance). Leur croissance, si on exclut la Chine, a davantage reculé en 2020 que celle des économies avancées et le rebond par la suite a été plus modeste. Le retard ne se comblerait pas cette année et l’an prochain.
Les investissements en infrastructures paraissent avoir par ticulièrement pâti de cette dynamique relativement défavorable. Si on en croit le Global Infrastructure Hub (novembre 2022), en 2021 ceux-ci ont progressé de 8,3% dans les pays à revenu élevé et ont reculé de 8,8% dans ceux à revenu intermédiaire et faible.
Monde : les économies les moins développées souffrent le plus
Tant et si bien que cette année-là 80% des projets de ce type ont été mis en oeuvre dans les économies développées. Comment ne pas « intuiter » que le retour à davantage de confiance pour ce qui est des perspectives de croissance est une condition nécessaire à une reprise des investissements en infrastructures dans les MEED !
Un mot encore avant de regarder devant ; il est nécessaire de bien mesurer l’effet multiplicateur de l’évolution des conditions financières sur le profil de la croissance. Le durcissement de la politique monétaire des principales banques centrales rend le financement des MEED beaucoup plus difficile. Et le constat vaut d’autant plus que le profil de crédit est faible. Selon des observations de la Banque Mondiale, les émissions obligataires pour l’ensemble des pays concernés ont reculé de 250 milliards d’USD en 2022 (beaucoup plus que lors des crises qui ont émaillé les 15 dernières années !), tandis que les écarts de taux souverains ont augmenté de 1740 points de base (17,4%) pour les pays mal notés et importateurs d’énergie.
Selon le FMI, la croissance économique des MEED se stabiliserait autour de 4% cette année et aussi la prochaine. Avec une loupe, on peut déceler une très légère pente haussière (respectivement +4,0% et +4,2% après +3,9% en 2022) ; mais le halo d’incertitude, dans ce moment si compliqué que l’économie mondiale traverse à l’heure actuelle, va sans doute au-delà de l’ampleur proposée de l’accélération. Si la quantification proposée peut paraître enviable par rapport à la performance attendue pour les économies avancées, elle est un peu terne relativement aux performances passées plus proches de 5,5%.
Où va la croissance de la zone émergente ?
COMMENT ALORS COMPRENDRE CE QUI PEUT APPARAÎTRE COMME UNE RÉSERVE DANS LE DIAGNOSTIC DU FMI ?
Il y a d’abord la nature du rebond attendu de l’économie chinoise. Le retour annoncé à meilleur fortune est une bonne nouvelle pour le reste du monde. D’accord, mais dans quelle mesure ? Pour répondre à la question, il est nécessaire de pousser un peu plus loin la compréhension qu’on peut avoir du rebond économique en cours là-bas. Il trouve son origine dans la levée des contraintes mises au déplacement des personnes. Les bénéficiaires directs seront donc d’abord ceux-ci. Sous leur casquette de consommateurs, ils vont privilégier très probablement les services. N’est-ce pas ce qu’on a pu observer en Europe ou aux Etats-Unis ? Par ailleurs, il paraît raisonnable de donner la priorité à l’hypothèse d’un accompagnement mesuré par une politique économique volontariste. Donner la préférence au triptyque « consommation – services – soutien limité par la politique économique » revient à ne pas suivre le corpus habituel d’une reprise chinoise. Celle-ci est le fruit de relances budgétaire et monétaire, d’endettement et d’investissement. Cette différence entre aujourd’hui et hier fait « toucher du doigt » les limites du bénéfice que les autres pays devraient tirer du « printemps » chinois annoncé. Un coup d’oeil jeté sur la composition des importations de l’empire du Milieu le montre bien. La part à destination des ménages est modeste.
Il y a ensuite la politique monétaire américaine. Son réglage ne conditionne-t-il pas à la fois une partie du mouvement des courbes de taux de par le monde et le niveau du dollar contre nombre de devises ? S’il est possible de considérer que l’essentiel du mouvement de remontée du taux directeur de la Réserve fédérale est effectué (il est aujourd’hui en point moyen à 4,63%), 2 aspects demandent à être précisés : où sera situé le plafond pour la phase de remontée en cours et combien de temps restera-t-il à ce niveau ? Face à des pressions inflationnistes qui renâclent à envoyer des signaux clairs de ralentissement et face à un marché du travail toujours tendu, on a envie de répondre plus haut et plus longtemps que le consensus du marché ne l’estime. Il faut alors sans doute conclure que l’environnement de taux américain, s’il devient moins adverse qu’il ne le fut, ne sera pas de suite porteur en matière de formation des conditions financières puis économiques des MEED.
Il y a enfin la capacité de chaque pays émergent ou en développement à relayer, au travers de ses propres capacités de politique monétaire, les initiatives prises à Washington. Cela dépend des équilibres économiques et de change. La situation est assez variable d’une économie à l’autre. Si on se fie à l’échantillon présenté ci-dessous, seule une minorité dispose d’un réel potentiel baissier autre que marginal de son taux directeur ; si tant est bien sûr que la situation américaine le permette.
A la recherche des marges de manoeuvre pour baisser les taux directeurs dans le monde émergent
Et puis, en s’éloignant de l’économie mais en en gardant à l’esprit les implications que cela peut avoir dans ce domaine, comment se désintéresser aux évolutions à venir du côté de la politique ! En la matière, un certain nombre de dossiers sont à suivre de près ; quelques-uns sont déjà anciens et donc bien repérés tandis que d’autres ont jusqu’à maintenant moins retenu l’attention :
• Chine : risque de conflit avec Taïwan, sanctions économiques américaines, hausse du chômage chez les jeunes et sousdimensionnement du système de retraite
• Brésil : risque d’instabilité politique suite à l’élection de Lula
• Arabie Saoudite : rapprochement avec la Russie et stratégie de réduction de la production de pétrole, parue comme hostile par les Etats Unis.
• Israël : risque de guerre avec l’Iran et conséquences de l’arrivée de l’extrême-droite au gouvernement
• Russie : poursuite de la guerre en Ukraine
• Cycle électoral, avec en particulier les scrutins présidentiel et /ou parlementaire au Nigéria, en Turquie, en Argentine et au Liban.
Ce regard multidimensionnel invite à conclure que 2023 ne se dessine pas sous les auspices les plus favorables pour l’économie des MEED. Pourtant les marchés de capitaux envoient un message beaucoup plus optimiste.
Depuis l’automne dernier, les compartiments obligataires et d’actions de la zone émergente se comportent de façon flatteuse par rapport à ceux des pays développés, singulièrement des Etats-Unis. Comment expliquer ce contraste ?
En fait, les investisseurs et les opérateurs de marché font le pari que l’économie mondiale, dont en premier lieu l’américaine, ne basculera pas dans la récession. Malgré des taux de chômage souvent bas, les banques centrales réussiront à ramener l’inflation à des niveaux peu ou prou compatibles avec les cibles définies ; et ceci sans enclencher un recul de l’activité durant plusieurs trimestres. Sous cette perspective, l’appétit pour les risque revient et les marchés émergents d’en profiter !
Des marchés obligatoires émergents qui reprennent des couleurs sur fond de taux longs américains mieux orientés
Retour à meilleure fortune des marchés actions émergents ?
De quel côté la conviction doit-elle pencher : de l’analyse fondamentale ou du regard des marchés financiers ? Comme il est difficile de se prononcer ! Rappelons simplement que les paris d’un soft landing de l’économie sont durs à gagner ; et sans doute encore plus quand les marchés du travail restent tendus.
Les économies émergentes et en développement (plus avant dans ce « papier », nous les appellerons MEED, pour marchés émergents et économie en développement) ont difficilement traversé la succession de crises vécues depuis 3 ans : sanitaire (la COVID), géopolitique (la guerre russe en Ukraine, les tensions dans les mers de Chine et la rivalité sino-américaine croissante), économique (le retour de l’inflation) et financière (la hausse des taux d’intérêt et du dollar dans un contexte d’endettement, principalement public, qui appelle à la vigilance). Leur croissance, si on exclut la Chine, a davantage reculé en 2020 que celle des économies avancées et le rebond par la suite a été plus modeste. Le retard ne se comblerait pas cette année et l’an prochain.
Les investissements en infrastructures paraissent avoir par ticulièrement pâti de cette dynamique relativement défavorable. Si on en croit le Global Infrastructure Hub (novembre 2022), en 2021 ceux-ci ont progressé de 8,3% dans les pays à revenu élevé et ont reculé de 8,8% dans ceux à revenu intermédiaire et faible.
Monde : les économies les moins développées souffrent le plus
Tant et si bien que cette année-là 80% des projets de ce type ont été mis en oeuvre dans les économies développées. Comment ne pas « intuiter » que le retour à davantage de confiance pour ce qui est des perspectives de croissance est une condition nécessaire à une reprise des investissements en infrastructures dans les MEED !
Un mot encore avant de regarder devant ; il est nécessaire de bien mesurer l’effet multiplicateur de l’évolution des conditions financières sur le profil de la croissance. Le durcissement de la politique monétaire des principales banques centrales rend le financement des MEED beaucoup plus difficile. Et le constat vaut d’autant plus que le profil de crédit est faible. Selon des observations de la Banque Mondiale, les émissions obligataires pour l’ensemble des pays concernés ont reculé de 250 milliards d’USD en 2022 (beaucoup plus que lors des crises qui ont émaillé les 15 dernières années !), tandis que les écarts de taux souverains ont augmenté de 1740 points de base (17,4%) pour les pays mal notés et importateurs d’énergie.
Selon le FMI, la croissance économique des MEED se stabiliserait autour de 4% cette année et aussi la prochaine. Avec une loupe, on peut déceler une très légère pente haussière (respectivement +4,0% et +4,2% après +3,9% en 2022) ; mais le halo d’incertitude, dans ce moment si compliqué que l’économie mondiale traverse à l’heure actuelle, va sans doute au-delà de l’ampleur proposée de l’accélération. Si la quantification proposée peut paraître enviable par rapport à la performance attendue pour les économies avancées, elle est un peu terne relativement aux performances passées plus proches de 5,5%.
Où va la croissance de la zone émergente ?
COMMENT ALORS COMPRENDRE CE QUI PEUT APPARAÎTRE COMME UNE RÉSERVE DANS LE DIAGNOSTIC DU FMI ?
Il y a d’abord la nature du rebond attendu de l’économie chinoise. Le retour annoncé à meilleur fortune est une bonne nouvelle pour le reste du monde. D’accord, mais dans quelle mesure ? Pour répondre à la question, il est nécessaire de pousser un peu plus loin la compréhension qu’on peut avoir du rebond économique en cours là-bas. Il trouve son origine dans la levée des contraintes mises au déplacement des personnes. Les bénéficiaires directs seront donc d’abord ceux-ci. Sous leur casquette de consommateurs, ils vont privilégier très probablement les services. N’est-ce pas ce qu’on a pu observer en Europe ou aux Etats-Unis ? Par ailleurs, il paraît raisonnable de donner la priorité à l’hypothèse d’un accompagnement mesuré par une politique économique volontariste. Donner la préférence au triptyque « consommation – services – soutien limité par la politique économique » revient à ne pas suivre le corpus habituel d’une reprise chinoise. Celle-ci est le fruit de relances budgétaire et monétaire, d’endettement et d’investissement. Cette différence entre aujourd’hui et hier fait « toucher du doigt » les limites du bénéfice que les autres pays devraient tirer du « printemps » chinois annoncé. Un coup d’oeil jeté sur la composition des importations de l’empire du Milieu le montre bien. La part à destination des ménages est modeste.
Il y a ensuite la politique monétaire américaine. Son réglage ne conditionne-t-il pas à la fois une partie du mouvement des courbes de taux de par le monde et le niveau du dollar contre nombre de devises ? S’il est possible de considérer que l’essentiel du mouvement de remontée du taux directeur de la Réserve fédérale est effectué (il est aujourd’hui en point moyen à 4,63%), 2 aspects demandent à être précisés : où sera situé le plafond pour la phase de remontée en cours et combien de temps restera-t-il à ce niveau ? Face à des pressions inflationnistes qui renâclent à envoyer des signaux clairs de ralentissement et face à un marché du travail toujours tendu, on a envie de répondre plus haut et plus longtemps que le consensus du marché ne l’estime. Il faut alors sans doute conclure que l’environnement de taux américain, s’il devient moins adverse qu’il ne le fut, ne sera pas de suite porteur en matière de formation des conditions financières puis économiques des MEED.
Il y a enfin la capacité de chaque pays émergent ou en développement à relayer, au travers de ses propres capacités de politique monétaire, les initiatives prises à Washington. Cela dépend des équilibres économiques et de change. La situation est assez variable d’une économie à l’autre. Si on se fie à l’échantillon présenté ci-dessous, seule une minorité dispose d’un réel potentiel baissier autre que marginal de son taux directeur ; si tant est bien sûr que la situation américaine le permette.
A la recherche des marges de manoeuvre pour baisser les taux directeurs dans le monde émergent
Et puis, en s’éloignant de l’économie mais en en gardant à l’esprit les implications que cela peut avoir dans ce domaine, comment se désintéresser aux évolutions à venir du côté de la politique ! En la matière, un certain nombre de dossiers sont à suivre de près ; quelques-uns sont déjà anciens et donc bien repérés tandis que d’autres ont jusqu’à maintenant moins retenu l’attention :
• Chine : risque de conflit avec Taïwan, sanctions économiques américaines, hausse du chômage chez les jeunes et sousdimensionnement du système de retraite
• Brésil : risque d’instabilité politique suite à l’élection de Lula
• Arabie Saoudite : rapprochement avec la Russie et stratégie de réduction de la production de pétrole, parue comme hostile par les Etats Unis.
• Israël : risque de guerre avec l’Iran et conséquences de l’arrivée de l’extrême-droite au gouvernement
• Russie : poursuite de la guerre en Ukraine
• Cycle électoral, avec en particulier les scrutins présidentiel et /ou parlementaire au Nigéria, en Turquie, en Argentine et au Liban.
Ce regard multidimensionnel invite à conclure que 2023 ne se dessine pas sous les auspices les plus favorables pour l’économie des MEED. Pourtant les marchés de capitaux envoient un message beaucoup plus optimiste.
Depuis l’automne dernier, les compartiments obligataires et d’actions de la zone émergente se comportent de façon flatteuse par rapport à ceux des pays développés, singulièrement des Etats-Unis. Comment expliquer ce contraste ?
En fait, les investisseurs et les opérateurs de marché font le pari que l’économie mondiale, dont en premier lieu l’américaine, ne basculera pas dans la récession. Malgré des taux de chômage souvent bas, les banques centrales réussiront à ramener l’inflation à des niveaux peu ou prou compatibles avec les cibles définies ; et ceci sans enclencher un recul de l’activité durant plusieurs trimestres. Sous cette perspective, l’appétit pour les risque revient et les marchés émergents d’en profiter !
Des marchés obligatoires émergents qui reprennent des couleurs sur fond de taux longs américains mieux orientés
Retour à meilleure fortune des marchés actions émergents ?
De quel côté la conviction doit-elle pencher : de l’analyse fondamentale ou du regard des marchés financiers ? Comme il est difficile de se prononcer ! Rappelons simplement que les paris d’un soft landing de l’économie sont durs à gagner ; et sans doute encore plus quand les marchés du travail restent tendus.
Temps et risque dans l’évaluation d’entreprise, l’exemple des concessions autoroutières
La valeur d’un actif peut être appréhendée aisément à travers les prix observés sur un marché où des actifs comparables sont échangés. C’est l’approche analogique de l’évaluation. Une solution alternative consiste à répliquer dans un modèle d’évaluation la façon dont ces prix se forment sur le marché. C’est l’approche intrinsèque de l’évaluation et le principe fondateur de la méthode DCF, méthode phare de cette seconde approche de l’évaluation.
Le point de départ de l’approche intrinsèque est la définition du concept de valeur financière selon lequel la valeur d’un actif repose sur les flux de trésorerie que le détenteur de cet actif est susceptible de percevoir dans le futur.
Comme ces flux interviennent à des dates échelonnées dans le temps et sont soumis à des aléas, le modèle doit nécessairement intégrer le comportement de l’investisseur à l’égard de deux paramètres : le temps et le risque. La théorie financière nous indique comment intégrer ces deux paramètres isolément, c’est-à-dire intégrer le temps sans considération du risque et intégrer le risque dans le cadre d’un modèle monopériodique (i.e. sans considération du temps).
S’agissant de la prise en compte du temps, les modèles utilisent la technique de l’actualisation, c’est-à-dire l’hypothèse communément acceptée selon laquelle l’individu exprime une préférence pour le présent. Sur les marchés financiers où, à travers l’acquisition de titres de créance considérés comme sans risque (bons du Trésor ou emprunts d’État), on échange implicitement du temps (i.e. une somme d’argent détenue aujourd’hui contre une somme d’argent disponible à une date ultérieure), le taux de préférence des individus pour le présent se traduit logiquement par l’existence d’un taux d’intérêt positif.
Ce taux d’intérêt sans risque matérialise un principe de base de la finance : « la valeur temporelle de l’argent » (un euro d’aujourd’hui n’est pas équivalent à un euro de demain, car l’euro perçu aujourd’hui, placé au taux d’intérêt sans risque, donnera plus d’un euro demain). Fondée sur ce principe, la technique de l’actualisation permet d’agréger des flux (supposés sans risque) intervenant à des dates échelonnées dans le temps, en les ramenant à la date d’aujourd’hui par le truchement du taux d’intérêt, et de déterminer ainsi la valeur de l’actif associée à cette chronique de flux.
S’agissant de la prise en compte du risque, le modèle couramment utilisé par les évaluateurs est le Modèle d’Evaluation des Actifs Financiers (Medaf). Ce modèle repose sur une segmentation du risque en deux composantes : (i) le risque spécifique (ou risque diversifiable), que le détenteur de l’actif peut éliminer en diversifiant son patrimoine, (ii) le risque systématique (ou risque non diversifiable), qui reste supporté par l’investisseur dont le patrimoine est parfaitement diversifié. Selon la formule du MEDAF, la rentabilité exigée sur un actif financier est égale au taux d’intérêt sans risque plus une prime de risque qui ne dépend que du risque systématique (le marché ne rémunère pas la fraction diversifiable du risque). Grâce au Medaf, on sait calculer la valeur d’un actif générant un flux risqué sur une période unique : c’est le flux moyen (ou flux « espéré ») actualisé au taux de rentabilité donné par la formule. Les deux composantes du risque de l’actif sont bien prises en compte : le risque spécifique au travers du calcul du flux espéré (soit, en théorie, la moyenne des flux anticipés dans les différents scénarios possibles, pondérée par la probabilité d’occurrence desdits scénarios), et le risque systématique via l’actualisation du flux espéré à un taux « risqué » intégrant une prime de risque.
Cependant, dans la pratique, il faut bien prendre en compte le fait que les évaluations portent sur des entités générant des flux sur plusieurs périodes (voire sur un horizon infini), ce qui conduit les évaluateurs à s’écarter du cadre théorique évoqué ci-dessus pour intégrer les paramètres temps et risque dans le même modèle (autrement dit, conjuguer le risque avec le temps).
L’intégration usuelle du risque dans le taux d’actualisation peut conduire à sous-estimer notablement l’entité évaluée : l’exemple des concessions autoroutières.
La démarche usuellement retenue par les praticiens pour intégrer le risque consiste à transposer le Medaf dans un cadre multipériodique. Concrètement, les prix du temps et du risque (systématique) sont intégrés simultanément, sur la durée de vie des entités évaluées, via l’actualisation des flux futurs espérés à un taux risqué unique, égal au taux d’intérêt sans risque majoré de la prime de risque (constante) issue de la formule du Medaf.
La démarche alternative intègre successivement (et non simultanément) les paramètres temps et risque : le paramètre risque, dans un premier temps, via la détermination de « flux équivalents certains » et le paramètre temps, dans un second temps, via l’actualisation de ces flux au taux d’intérêt sans risque. Les flux équivalents certains intègrent la totalité du risque et sont donc inférieurs aux flux espérés qui n’intègrent que la fraction diversifiable du risque.
La difficulté de la démarche alternative réside dans la déterminat ion des coefficients d’ajustement à appliquer aux flux espérés pour obtenir les flux équivalents certains.
Ces coefficients peuvent être estimés dans le cadre théorique du Medaf, mais la formule de calcul, plutôt alambiquée, s’avère inapplicable dans la pratique. Soulignons par ailleurs que, dans le cadre d’une évaluation d’entreprise, l’évaluateur doit d’abord apprécier le degré d’optimisme du plan d’affaires, avant même de s’interroger sur les modalités d’intégration du risque.
S’il estime disposer d’un plan d’affaires représentatif du scénario moyen associé aux flux espérés, il pourra soit actualiser ces flux au taux risqué du Medaf, soit déterminer des flux équivalents certains et les actualiser ensuite au taux d’intérêt sans risque. S’il estime disposer d’un plan d’affaires plutôt conservateur, voire pessimiste, l’évaluateur ne peut met tre en oeuvre la démarche usuelle sans ajuster les flux du plan à la hausse, mais il peut en revanche opter directement pour la démarche alternative en considérant que les flux du plan donnent une estimation raisonnable des flux équivalents certains.
La démarche usuel le d’intégration du risque s’avère critiquable, car en utilisant la technique de l’actualisation pour conjuguer le risque avec le temps (alors que cette technique n’est a priori destinée qu’à prendre en compte la valeur temporelle de l’argent), elle formule implicitement une hypothèse forte sur l’évolution du risque systématique en supposant que ce risque augmente fortement avec le temps. La démarche alternative apparaît plus solide, car en traitant séparément les problématiques relatives à l’intégration du temps et du risque, elle ne formule aucune hypothèse a priori sur l’évolution du risque, ce qui permet de traiter de façon rigoureuse tous les cas d’évaluation et notamment l’évaluation d’activités qui bénéficient d’une bonne visibilité sur une longue durée (par exemple les projets d’infrastructure) et pour lesquelles l’hypothèse d’une augmentation croissante du risque avec le temps est particulièrement contestable.
A titre d’illustration, considérons une concession autoroutière susceptible de générer en moyenne un flux annuel de 800 M€ sur une durée de 30 ans (l’inflation est supposée nulle). Sur la base d’un taux d’intérêt (réel) sans risque de 1,5%, d’un coefficient bêta d’activité de 0,5 et d’une prime de risque de marché de 5,5%, le taux de rentabilité donné par la formule du Medaf s’élève à 4,25% et la valeur de la concession selon la démarche usuelle d’intégration du risque ressort à 13 423 M€ (valeur actuelle du flux annuel de 800 M€ au taux de 4,25%). Compte tenu de la bonne visibilité sur le chiffre d’affaires qui, malgré une base de coût relativement fixe, confère à l’activité un faible risque systématique (attesté par le coefficient bêta de 0,5), il apparait raisonnable de fonder la détermination des flux équivalents certains sur un coefficient d’abattement constant de 0,15. Sur cette base, la valeur de la concession selon la démarche alternative ressort à 16 331 M€ (valeur actuelle du flux annuel équivalent certain de 680 M€ au taux d’intérêt sans risque de 1,5%). L’écart avec l’estimation donnée par la démarche usuelle est d’environ 22% et provient des hypothèses implicites formulées sur l’évolution du risque dans le temps. Avec la démarche alternative, le risque est supposé invariant (l’abattement pratiqué sur le flux espéré au titre du risque est de 15% quelle que soit l’année considérée), alors qu’avec la démarche usuelle, le risque augmente fortement avec le temps (l’abattement pratiqué au seul titre du risque passe ainsi de 10% en année 4 à 21%, 31%, 40% et 50% en années 9, 14, 19 et 26, soit une progression très importante que le profil de risque de l’activité ne saurait justifier).
En conclusion, utiliser la démarche usuelle d’intégration du risque pour l’évaluation d’activités bénéficiant d’une bonne visibilité sur une longue durée est critiquable et peut conduire à des sous-évaluations notables.
Si les innovations techniques et technologiques requièrent des infrastructures de rupture, nos sociétés vont également avoir besoin de se doter de « superstructures de rupture ». Qu’est-ce qu’une superstructure ? L’équivalent non matériel de l’infrastructure, soit : les idées d’une société et leurs modalités d’expression (art, philosophie, morale), ses institutions étatiques, mais aussi culturelles et scolaires.
C’est Karl Marx qui invente ce couple de concepts pour en montrer la profonde codétermination : les superstructures idéologiques d’une société dépendent étroitement de ses infrastructures matérielles et économiques, et vice-versa. Par exemple, la révolution industrielle a fait évoluer l’infrastructure (innovations techniques, mécanisation, division du travail…) comme la superstructure (libéralisme, rationalisme, morale bourgeoise…), lesquelles se sont renforcées mutuellement.
De quelles superstructures de rupture allons-nous avoir besoin pour accompagner les mutations matérielles et économiques de notre temps ? Si nous n’en savons rien avec précision, ce que nous savons d’ores et déjà, c’est que nos superstructures actuelles ne conviennent plus. C’est le point de départ d’un excellent TedX de Sir Ken Robinson sur nos systèmes éducatifs : le paradigme sur lequel ils reposent est encore celui de l’âge industriel.
En effet, notre système éducatif a été conçu au 19e siècle dans le contexte économique de la révolution industrielle. Logiquement, l’école est ainsi organisée de façon à préparer à ce système de production : sonneries de cloches, installations séparées, matières spécialisées, programmes d’études standardisés, tests standardisés. C’est ce que Sir Ken Robinson appelle « the factory model of education » (le modèle industriel de l’éducation). Ce système éducatif hérité de l’âge industriel a un défaut en particulier : il tue la créativité et la pensée divergente. Or notre époque, une des plus stimulantes de l’histoire, en a plus que jamais besoin ! Raison pour laquelle il est nécessaire d’effectuer un changement radical de paradigme en ce domaine, et cela passe par trois étapes. D’abord, détruire le mythe selon lequel il y a une division entre l’académique et le non-académique, entre le théorique et le concret : en autres termes, cesser de séparer l’enseignement de la vie. Ensuite, reconnaître que la plupart des grands apprentissages se font collectivement – car la collaboration est la base de la progression – plutôt qu’encourager la concurrence individuelle entre les élèves.
Enfin, changer les habitudes de pensée de ceux qui travaillent dans le système éducatif comme les architectures des lieux qu’ils occupent. Le philosophe Michel Foucault remarquait déjà les profondes résonances entre les organisations spatiales et temporelles des usines et des écoles. Aux nouvelles superstructures de rupture devront ainsi à leur tour correspondre d’inventives infrastructures de rupture. À quoi ressembleront les écoles de demain ? Où seront-elles ? Certains les imaginent dans le cloud comme Sugata Mitra en Inde, d’autres en pleine nature comme ces forest schools qui fleurissent en Europe. Et si nous le demandions à nos enfants et à nos jeunes ? La créativité est leur génie propre, non ?
La 5G en Europe : Le chemin est parsemé d’embûches
En 2019, l’Europe a proclamé l’avènement de la 5G, une nouvelle technologie qui allait bouleverser la manière dont les entreprises et les individus communiquent les uns avec les autres. Quatre ans plus tard, le déploiement de l’infrastructure requise est loin d’être terminé et les sociétés pionnières du secteur semblent marquer le pas.
Pourquoi ? Parce que le retour sur investissement est incertain.
Quoi qu’il en soit, certains experts identifient des signes de revirement imminent du paysage actuel. Les nouvelles technologies et pratiques telles que la réalité augmentée, les appareils autonomes ou le travail à distance ont besoin de plus de données, de plus de rapidité et de nouvelles fonctions.
Dans ce contexte, les questions suivantes se posent : quel moteur pourrait-il accélérer la pénétration de la 5G ? Qui profitera le plus de la 5G ? Dans quelle mesure et proportion, les investisseurs recouvreront-ils leur investissement ?
1. Sommes-nous à l’aube d’un véritable revirement pour l’adoption de la 5G ?
Ericsson prévoit une nette augmentation des abonnements à la 5G d’ici à 2028 sur fond de mise à disposition d’appareils de plusieurs opérateurs, de baisse des prix et de déploiement précoce de la 5G en Chine. Cette adoption massive à l’échelle mondiale entraînera :
(i) une envolée du nombre d’utilisateurs à cinq milliards (80 % d’entre eux utilisant surtout la vidéo) ; (ii) une répartition des utilisateurs plus équilibrée entre les continents ; (iii) le trafic de données mobiles passant de 15 EO1 par mois à 225 EO par mois à l’échelle mondiale.
ILLUSTRATION 1 – Taux de pénétration de la 5G par région
ILLUSTRATION 2 – Répartition des abonnements à la 5G par région
ILLUSTRATION 3 – Trafic de données mobiles 5G à l’échelle mondiale
Ce revirement devrait découler des nombreux avantages de la 5G par rapport à la 4G. Citons à cet égard la vitesse de téléchargement supérieure – jusqu’à 1 GO par seconde – son spectre, sa capacité et sa latence.
TABLEAU 1 – Aperçu des caractéristiques de la 5G par rapport à la 3G et la 4G
L’efficacité énergétique de la 5G est un autre atout qui mérite d’être mentionné ; les études montrent que – à iso-débit – la technologie 5G ne consomme que 10 % de l’électricité nécessaire au fonctionnement de la 4G.
Les autres avantages comprennent (i) des interférences réduites, (ii) une sécurité accrue et (iii) une connexion avec les produits nouvellement développés.
2. Quels sont les obstacles au déploiement de son infrastructure en europe ?
Il est difficile de déterminer le nombre précis et actualisé des stations émettrices-réceptrices actuellement actives en Europe car le déploiement des réseaux de 5G est en cours et varie significativement d’un pays à l’autre.
TABLEAU 2 – Types de bande 5G et caractéristiques
PLUSIEURS FACTEURS EXTERNES ONT FREINÉ SON DÉVELOPPEMENT JUSQU’À MAINTENANT :
Facteurs commerciaux :
• La stratégie de monétisation incertaine pour les développeurs de réseaux en l’absence d’un modèle d’affaires concret incluant un rendement suffisant.
• Un écosystème technologique plus faible en Europe moins à même de pousser l’adoption accélérée de la 5G pour satisfaire ses besoins (p. ex. technologies immersives).
• Des difficultés d’accès au matériel informatique, surtout depuis que le gouvernement américain a bloqué l’approvisionnement mondial de Huawei, le géant des télécommunications sur liste noire, en microprocesseurs.
• La lenteur du remplacement des appareils de générations antérieures.
Facteurs politiques et administratifs :
• Le marché européen est très fragmenté et comprend des centaines d’opérateurs, tandis que les Etats-Unis ou la Chine sont couverts par trois opérateurs majeurs chacun pour investir.
• Des obstacles administratifs et bureaucratiques plus élevés pour les fournisseurs de réseaux en Europe.
• Un manque de standardisation des processus : les opérateurs ont du mal à identifier les synergies en matière de déploiement en raison de l’âpre concurrence sur chaque marché local.
• Une impulsion politique moins prononcée qu’en Asie où les technologies sont utilisées pour surveiller et contrôler la population.
3. Que fait l’europe pour surmonter ces obstacles ?
Le déploiement de la 5G dans l’UE est hétérogène pour ses différents membres. À la fin 2020, 23 États membres avaient adopté les services commerciaux de 5G et comptaient au moins une grande ville avec accès à la 5G. Quoi qu’il en soit, tous les projets nationaux de large bande passante 5G n’incluent pas des références aux objectifs 2025 et 2030 de l’UE.
ILLUSTRATION 5 – Déploiement de la 5G en Europe
La Commission Européenne a estimé que 44 % de l’ensemble des connexions mobiles en Europe se feront via la 5G d’ici trois ans. Guidée par cet objectif, elle a lancé nombre d’initiatives visant à accélérer le déploiement de la 5G en Europe, recherchant ainsi activement des solutions et s’efforçant d’améliorer le déploiement. Grâce à ces initiatives, entre autres, l’UE avait installé à la fin 2021 plus de 250 000 stations émettrices-réceptrices 5G, couvrant ainsi 70 % de sa population. Cette couverture est toutefois privée d’une grande partie des fonctions et de la vitesse de transfert des données associées à la nouvelle technologie.
4. La 5G est-elle un créneau lucratif ?
Pour les opérateurs, le plus gros problème consiste à rentabiliser leur investissement. Ils devront probablement se détacher de leurs modèles d’affaires traditionnels pour monétiser leurs services. Aussi les stratégies de monétisation et les analyses du déploiement de la 5G devront elles être réexaminées.
Par exemple, l’investissement nécessaire à la conversion des réseaux existants en réseaux 5G s’élèvera à environ 5 milliards d’euros en Espagne seulement, plus 2 milliards d’euros supplémentaires pour le déploiement de la 5G entre 2021 et 2025, selon les estimations du gouvernement espagnol. Un montant total de 7 milliards d’euros.
Les opérateurs ont bien conscience de l’inévitable hausse de leurs coûts d’exploitation et d’investissement. Mais le modèle qui rendra leurs investissements profitables reste encore incertain. La collaboration avec les exploitants d’infrastructures neutres est essentielle pour permettre la mise en place d’effets d’échelle et abaisser les coûts unitaires d’exploitation. Concernant les invest issements, les opérateurs testent de
nouveaux métiers et modèles dans le but de rentabiliser leurs investissements au-delà de leur zone de confort traditionnelle. Telefonica travaille par exemple à l’hypersegmentation de son offre via la monétisation d’APIs permettant aux utilisateurs de moduler le débit, la latence et la qualité de service.
Les opérateurs de réseaux travaillent également à la recherche de solutions alternatives sous forme de partenariats avec des acteurs Tech.
Les objectifs ?
• Mieux comprendre leurs capacités et besoins mutuels ; • Permettre aux fabricants d’améliorer l’efficacité de leurs équipements ; • Eviter la standardisation et offrir des services à valeur ajoutée en SaaS, PaaS ou NaaS ; • Mieux partager les revenus tirés de ces nouveaux services.
5. Qui pourraient être les « gagnants » d’un déploiement réussi de la 5G ?
ILLUSTRATION 6 – La chaîne de valeur 5G et ses principaux acteurs
Si les opérateurs de réseaux peinent à trouver des moyens de monétiser leurs investissements, d’autres acteurs sont bien placés pour profiter du déploiement de la 5G :
• Les fournisseurs de tours/d’infrastructures : la construction d’un grand nombre de tours et de stations émettrices-réceptrices pourrait être nécessaire dans certaines régions. Les coûts du démembrement des infrastructures obsolètes doivent toutefois être pris en compte.
• Les prestataires de services OTT et autres, tels que la conduite autonome, les villes intelligentes, l’industrie 4.0, la télésanté, l’agriculture intelligente ou les loisirs.
• Les fournisseurs d’équipements : les fournisseurs de composants, les spécialis tes de l’automatisation industrielle, les spécialistes de l’optique connectée.
6. Conclusion
Les constructeurs de tours et opérateurs de réseaux avancent vers une nouvelle ère de la communication, mais les défis auxquels ils font face sont significatifs. La faiblesse actuelle de la demande est un obstacle à l’adoption de cette nouvelle technologie et certains investisseurs estiment qu’elle ne justifie pas un investissement aussi important. Parallèlement, les coûts technologiques ont augmenté dans un contexte de concurrence mondiale forte sur les composants informatiques. Les acteurs européens font face à une concurrence à la fois âpre et déséquilibrée venant des opérateurs chinois et américains qui bénéficient d’un meilleur accès aux équipements, de cadres administratifs plus favorables, d’économies d’échelle plus prononcées grâce à la consolidation du marché et à une demande accrue dopée par le dynamisme de leurs écosystèmes technologiques.
La construction de l’infrastructure requiert, d’une part, une vision économique à long terme et des moyens except ionnels, mais la révolution technologique nécessite, d’autre part, une grande agilité dans l’exécution.
À l’heure actuelle, l’écosystème européen ne s’est pas montré capable d’associer ces deux aspects.
Les institutions européennes ont néanmoins fini par prendre conscience de cet écart et commencé à soutenir les groupes du secteur. Leur assistance ne suffira pas et les investisseurs privés devront également redoubler d’efforts.
Pour que la 5G devienne réalité en Europe, toutes les par t ies p renantes doivent collaborer, partager leurs connaissances et les bénéfices futurs. Citons à cet égard la conception, la modélisation et la mise en oeuvre d’alliances stratégiques majeures entre opérateurs européens. Le partage des investissements et la conception d’un partage intelligent des bénéfices avec l’écosystème technologique aval bénéficiant de l’expansion de la 5G semblent eux aussi indispensables.
Face à la crise énergétique et aux enjeux de souveraineté qui se sont révélés, le nucléaire connaît actuellement un net regain d’intérêt en tant qu’énergie décarbonée. Mais quel sera le nucléaire de demain ? A côté du nucléaire conventionnel qui reste l’apanage d’acteurs étatiques ou paraétatiques, de nombreuses start-ups sous financements privés se sont lancées ces dernières années dans cette industrie, à l’instar de NAAREA (acronyme de “Nano Abundant Affordable Resourceful Energy for All”).
A travers son projet de XS(A)MR (“extra-small advanced modular reactor” en anglais), NAAREA a pour ambition de concevoir et développer des réacteurs de 4ème génération à sels fondus et de faible puissance (< 50 MW).
Les avantages de cet te technologie – initialement mise au po int dans les années 1950-1960 – sont multiples selon ses deux fondateurs (Jean-Luc Alexandre et Ivan Gavriloff). Tout d’abord, un tel réacteur, dont le fonctionnement consiste à dissoudre le combustible nucléaire dans du sel fondu à haute température (700°C), est plus sûr grâce aux systèmes de régulation de la fission, autorisés par la moindre taille du réacteur. En outre, aucun prélèvement n’est effectué sur les ressources naturelles car le réacteur utilise les combustibles issus des réserves existantes de déchets nucléaires et de thorium (concept de Waste-to-Energy), limitant d’autant les liens de dépendances avec des fournisseurs d’uranium. A cela s’ajoute que les déchets issus du process seront très restreints, réduisant par là même le risque de dispersion et les problématiques liées au stockage. Mais l’atout principal de cette innovation, et aussi ce qui la différencie d’autres projets d’envergure aux Etats-Unis ou en Chine, réside dans sa très petite taille. Avec un volume ultra compact, s’approchant d’un container, le réacteur peut être déployé de manière indépendante et décentralisée, permettant d’être au plus proche des consommateurs industriels, sans nécessiter de renforcement des réseaux de distribution actuels ni d’accès à l’eau. In fine, un tel réacteur devrait assurer un prix de l’énergie en sortie de réacteur plus abordable que celle issue des énergies fossiles et renouvelables pour une autonomie pouvant aller jusqu’à 10 ans.
L’objectif de NAAREA est de produire et d’exploiter, ellemême, ses micro-centrales en grande série et de vendre l’énergie produite aux industriels. Ce positionnement en tant que fournisseur de services est de ce fait nettement plus engageant et donc rassurant pour les autorités de sûreté nucléaire car il évite la multiplication des exploitants nucléaires. Là encore, il diffère des nombreux autres projets concurrents qui s’en tiennent à fournir la solution.
En contrepartie, ce projet nécessite de lourds investissements. Aujourd’hui, la start-up a déjà levé plusieurs dizaines de millions d’euros auprès de family offices et a construit des partenariats avec des acteurs majeurs de l’industrie : le CEA, le CNRS, Framatome, Orano, Dassault Systèmes, Assystem. C’est d’ailleurs avec ce dernier qu’elle est en train de réaliser le jumeau numérique de son réacteur, prévu pour l’été 2023. Participant notamment à l’appel à projets “ Réacteurs nucléaires innovants ” du plan d’investissement « France 2030 », NAAREA espère encore lever plusieurs centaines de millions pour pouvoir construire son prototype d’ici à 2027, puis sa première unité d’ici à 2029.
Dans « Charge d’âme » paru en 1977, Romain Gary pose déjà le problème de l’accès à une ressource énergétique moins polluante. Gary n’imagine rien d’autre que la récupération des âmes des défunts comme carburant pour nos machines. L’humanité va donc devoir s’interroger sur ce qu’elle est prête à accepter moralement pour poursuivre sa croissance et maintenir ses habitudes de vie. Et Gary de conclure sa fable philosophique : « Le paradoxe de la science [..] est qu’il n’y a qu’une réponse à ses méfaits et ses périls ; encore plus de science ».
Porté par une large conscience de l’enjeux environnemental, le monde de l’infrastructure est en train de vivre de nombreuses révolutions. Les infrastructures sont désormais sur le devant de la scène politique et économique. De parent pauvre de l’investissement il y a 25 ans, elles concentrent désormais de nombreuses attentes.
Nous entrevoyons ainsi trois défis majeurs à relever :
• La vitesse de déploiement d’un mix énergétique décarboné réaliste et adapté aux contraintes locales dans lequel le nucléaire comme source primaire prend une place importante lorsqu’il est géographiquement possible. La multitude de nouveaux projets prometteurs implique une révision des périmètres d’investissement des fonds spécialisés. Ils concernent l’ensemble de la chaîne de valeur depuis la production, le stockage jusqu’à la distribution. La coopération entre décideurs politiques, acteurs publics et privés sera déterminante pour accélérer la décarbonation.
• L’adaptation des réseaux de distribution (Hydrogène et électrique) doit aller de pair avec l’adaptation (conversion) ou la production des matériels roulants dans l’automobile, le ferroviaire et plus tard l’aéronautique. Les manufacturiers et gestionnaires de réseaux doivent mieux coopérer pour éviter les at tentismes réciproques qui freinent le déploiement de solutions.
• Le volume de projets nécessaires et l’importante masse monétaire disponible impliquent pour les prêteurs de repenser leurs processus d’exécut ion des financements pour gagner en rapidité et fluidité.
Nous n’oublions pas l’importance des filières de traitement des déchets, de traitement et transpor t de l’eau, des réseaux de télécommunication. Ces secteurs cruciaux ont leurs propres challenges technologiques mais ils sont très dépendants de la qualité des énergies qu’ils pourront consommer ou des réseaux et moyens de transport mis à leur disposition.
Alors oui, les infrastructures n’ont jamais eu autant besoin d’innovations !
Il n’y a pas si longtemps, à peine quelques petites années derrière, on se préoccupait d’une dynamique trop faible des prix, voire d’un risque de déflation. Au point que la Fed aux États-Unis et la BCE en Zone euro ajustent chacune leur objectif d’inflation, en acceptant de tolérer pour un temps donné une dérive supérieure à 2 % l’an. Et voilà que l’inflation maintenant nous joue des tours ! En juin dernier, le glissement sur un an des prix à la consommation atteint 9,6 % de l’autre côté de l’Atlantique et en octobre elle se monte à 10,6 % de ce côté-ci. Une décrue depuis s’est enclenchée (assurément de l’autre côté de l’Atlantique et hypothétiquement du nôtre). Mais jusqu’où ira-t-elle ?
Lire la suite de l’article via le lien ci-dessous.
The international financial and strategic advisory firm Accuracy is expanding its team in Spain with the integration of Enrique Reina as a new partner, specialised in the banking sector.
In this edition of the Economic Brief, we focus on what 2023 may have in store from three different perspectives: that of chief economists, that of CEOs and that of the markets. We will see that the views are not necessarily consistent between them, with the macroeconomic context making any projection exercise difficult to complete.
Lors de la cérémonie des Trophées du Film Français qui s’est tenue hier soir à l’Intercontinental Paris, Yvan Attal et Elyse Salzmann ont eu le plaisir de remettre le Trophée d’Honneur à la célèbre scénariste et réalisatrice Danièle Thompson.
Organisés en partenariat avec Accuracy, Deluxe, Neuflize OBC, Orange, la Scam, TF1 et UniFrance, les Trophées du Film Français récompensent chaque année les champions du box-office et des audiences en France, ainsi que des films et personnalités qui ont créé l’événement en 2022.
Accuracy, the international independent advisory firm has appointed Christy Howard as a new partner in its London office. Christy will strengthen Accuracy’s growing transactions & investments advisory practice, which advises on M&A deals.
Pour la première fois, Accuracy a accueilli des acteurs publics, privés et associatifs pour un séminaire national inédit organisé par La Place Stratégique, Gendarmerie Nationale, et Observatoire des métavers. Plusieurs tables rondes ont été proposées sur des sujets clés du métavers :
• L’importance du métavers aujourd’hui et dans le futur • Les risques potentiels de cette nouvelle technologie • L’encadrement de l’usage du métavers • Le commerce dans le métavers
A cette occasion, Jean Barrere, associé chez Accuracy, a répondu à nos questions.
Accuracy, le cabinet de conseil international indépendant, renforce sa partnership avec la nomination de quatre nouveaux associés. Cela porte le nombre total d’associés d’Accuracy à 62, répartis dans 13 pays.
Accuracy, the international independent advisory firm, has promoted four of its directors to partners. This brings the total number of Accuracy partners to 62, spread across 13 countries.
The year 2022 has been a difficult one for many, full of economic events and shocks that have not gone without leaving their mark. However, in this last edition of the Economic Brief in 2022, instead of recapitulating these main events, we will focus on three areas that have not necessarily been the centre of attention in the news: the state of globalisation today, how profits differ between the US and Europe and what the financial cycle holds next for us.
Accuracy a conseillé Gi Group Holding dans le cadre de son acquisition d’Eupro Holding AG, la holding d’un groupe leader de sociétés basées en Suisse (“Eupro”) et spécialisées dans le secteur du recrutement et des ressources humaines.
Accuracy advised Gi Group Holding in the context of its acquisition of Eupro Holding AG, the holding company of a group of leading Swiss-based companies (“Eupro”) focused on the recruitment and human resources industry.
Nearing the end of 2022, it seems an understatement to say that economic conditions are difficult the world over – supply-side issues persist, the war in Ukraine continues and inflation remains high in numerous countries, to name but a few. In this edition of the Economic Brief, we aim to pierce some of the uncertainty caused by these conditions: we look into the IMF’s growth forecasts for the near future; we focus on salaries in the US to understand a potentially overlooked factor in inflation; and we take a step back to consider the wider economic picture and general changes currently at play.
The twin green and digital transitions: resolve for investment and perspicacity for macroeconomic management
The world economy is facing numerous challenges. In the short term, we have an unusual rhythm in prices and a deterioration of growth prospects, taking place in complicated political environments internally in many countries and in a worrying environment internationally (actions of Russia in Ukraine, China around Taiwan and Iran with its Arab neighbours). In the long term, ageing populations are of concern in a number of regions around the globe, economic ‘regulation’ seems to be moving away from the neoliberal corpus towards a more Keynesian approach and the twin green and digital transitions are under way.
Let us pause on this last point. The green transition is essential. It is essential for the preservation of the planet and of all the species that live on it. We must ‘decarbonise’ industry and transport, succeed in the energy renovation of buildings and develop renewable energy on a large scale. The digital transition is also indispensable. It represents the continued process of enabling companies, administrations and households to incorporate new technologies (for example, the cloud, the internet of things or artificial intelligence) in many aspects of their activities. It is worth bearing in mind that the necessary transformations are not purely technological issues; there is a very significant human aspect, with cultural and behavioural adaptations to be made.
The amount of investment in play is impressive. For the eurozone alone, considering an annual envelope of €500 billion a year, for multiple years (certainly no less than 10), does not seem unreasonable. At least that is the order of magnitude determined when summarising some authoritative work on the subject. That represents more than four points of GDP!
The sums committed are so vast that questioning their macroeconomic implications would not be a futile exercise. Let us propose a simple forecast to 2032. The starting point is this resolve for investment linked to the twin transitions: the €500 billion a year, which, when changing from current currency to constant currency (the currency used when measuring the economic growth – that of GDP), becomes €440 billion. The other elements of demand, including investment spending outside of the twin transitions, remain on the same trajectory as observed over the past few years with one exception: extra investment is reflected by more imports and therefore by a reduction in external trade surplus. For this exercise, we assume that there will be no shock from prices or economic policy over the period.
THE TABLE ABOVE HIGHLIGHTS THE MAIN IMPLICATIONS TO
CONSIDER.
THREE ARE PARTICULARLY NOTEWORTHY:
• GDP growth would reach 1.5% a year. Though
this forecast exercise appears reasonable, we must admit that potential for
growth is estimated at 1% a year. Of course, we could consider that the
additional investment effort will contribute to more growth. But we could also
defend the idea that, at least in part, this new accumulation of capital would
replace the destruction of fixed assets that have become obsolete.
We must not forget demographic developments either,
which send a rather negative message about the active population (effect to be
offset perhaps by a return to a situation with close to full employment).
In any case, one suspicion remains: is the
quantification based on these assumptions too optimistic?
• The share of household consumption in GDP would
fall by 2.5 points over the period to reach 49.5%. The current level is
already not particularly high: 52% against an average of 55% between 1995 and
2010 (and a high of 59% in 1980), a period that was therefore followed by a
gradual decline. With the change in macroeconomic ‘regulation’ that we are
starting to see, one that emphasises more inclusive growth, is this really
credible?
• If the investment / GDP ratio must progress by
almost 4.5 points by 2032, then savings must follow; this is how
macroeconomic balances work! Where could this come from? In part from lower
savings in Europe heading towards the rest of the world. We have spoken
about a fall in external trade after all…
For the remainder, it will be necessary to choose between greater efforts by households to save, an increase in corporate profits and/or a decrease in the public deficit.
NONE OF THESE OPTIONS IS SELF-EVIDENT.
The first brings us back to the question of a reduction of household
consumption in GDP; we just saw it.
The second suggests a further distortion of wealth created in
favour of business. But that might go against current sentiment (new
‘regulation’, including the development of ESG – environment, social and
governance – criteria)…
The third seems reasonable, of course, but making the choice
between bringing current spending down and increasing tax income is no easy
task (public investment would most likely be protected).
If this scenario is not quite unacceptable, but still
seems a bit ‘messed up’, then we need to try to imagine what would be reasonable
to expect under the two constraints of succeeding in the twin transitions and
not deluding ourselves on future economic growth.
In fact, the adjustment can only be made in two areas:
either (i) on savings
placed in the rest of the world (the counterpart of the external trade
balance), with the possibility that flows would invert and that the eurozone
would need to ‘import’ foreign savings, or (ii) on a slowdown in consumption
spending (whether household or government).
The first solution would weaken Europe on the international
stage.
In terms of macroeconomics, Europe would appear less solid,
which would reinforce the impression already given by the microeconomy (lower
profitability of companies in the Old World compared with those in the New
World and smaller presence in the sectors of tomorrow) and by po li t ics
(unreso lved issues of integration and its geopolitical role). The resulting
financial balances will be more uncertain, whether in terms of interest rates
or exchange rates; it would be impossible to think otherwise.
The second idea, which is obviously akin to frugality, seems difficult to put in place in a more Keynesian environment that is stamped by an ambition to share wealth more in favour of households. That is, of course, unless public authorities find the winning formula to incentivise households to save more.
We understand it; the ambition to drive investment, for innumerable sound reasons, has destabilising macroeconomic effects. We must anticipate them and prepare ourselves; after all, prevention is better thancure…
Isabelle Comyn-Wattiau Professor at ESSEC Business School, Chair of Information Strategy and Governance
Valuing our wealth of data, a challenge no company can escape
Evoking the value of data in 2022, when the media is overflowing
with examples of companies suffering damage linked to data, may seem
counter-intuitive. Yet, it is well known that data has value, and it is the very reason why
the attacks targeting data are not just simple cyberattacks. More and more,
they aim to seize the informational wealth of the target organisations.
Data security can be broken down into three areas: availability,
confidentiality and integrity. Attacking an information system compromises its availability, thereby endangering
the process that the system underpins. This is what we were able to observe at
the Corbeil-Essonnes hospital a few months ago. Due to a lack of available data
linked to the patient, the diagnosis and care process is made longer and more
expensive. It can even have an impact on patient health by delaying a course of
treatment. During these attacks, we also fear a confidentiality breach of
highly sensitive data.
And, if by chance the computer hackers modify these data, they could compromise their integrity. Thus, all three parts of data security are affected, with extensive damage: first, the health of the patient, but also the reputation of the hospital and the cost linked to the restoration of the information systems and all the affected processes. Limiting ourselves to the security of the data is a reductive defensive approach, even if we cannot rule it out. Determining the value of data is a significant issue for most companies. The press publishes daily success stories of start-ups where a good idea for sharing or pooling highly operational information leads to new, unsuspected value. Thus, in 2021, the market capitalisation of Facebook reached around $1 trillion, but the net value of the company based on its assets and liabilities was only $138 billion.1
The difference in terms of value can be explained by
the data that Facebook collects from its users and uses in turn to feed its
advertising algorithms. For economists, data represent unrivalled assets (in
that they can be consumed by various users without diminishing), which do not
necessarily depreciate as we use them; on the contrary, they can generate new
information, for example when combined with others. For some, however, the
value does depreciate, and very quickly at that. All these characteristics mean
that data fall into a highly specific class of asset that resembles no other
intangible asset, brand, software, patent, etc.
Tackling the value of data also requires us to agree on
the vocabulary to be used: data versus information. Without reopening the debate on the difference
between data and information, we can consider them identical in an initial
approach to the topic. Some, however, will wish to distinguish data – the input
of the system, unmodifiable, a result of measuring a phenomenon – from
information – the output of the system after cleaning, restatement, refinement,
aggregation, transformation, etc.
The value of information has been studied in line with
accounting practices notably by Moody and Walsh.2They first
endeavoured to demonstrate that information can be considered as an asset: it
offers a service and an economic advantage, it is controlled by the
organisation and it is the result of past transactions. They then proposed three
appraisal methods to value information.
The first is based on costs – of acquisition,
processing, conservation, etc. It is the easiest to put in place because these elements are more or less
present in the financial controller’s dashboard. However, these costs do not
reflect all aspects of data, for example the development of their value over
time. The second appraisal method is based on the market and consists of
determining the value that can be obtained by selling the data.
Here, we talk about an exchange value. This approach requires a considerable
effort. Moreover, it is not always possible to obtain a reliable measure of the
value of the data. Finally, the third method is based on utility.
This means appraising the use value of the data by estimating
the economic value that it can generate as a product or a catalyst. But this
value is difficult to anticipate, and estimating the share of its catalytic effect
is also highly complex.
Thus, it seems that the various approaches to
determine the value of data are partial but complementary: some are based on the use value or
exchange value of data; others assume rational corporate behaviour and assess
data at the level of investment made to acquire it and manage it throughout its
life cycle; still others are based on risk. The risk approaches see data as
the target of threats to the company or organisation. Such risks may be
operational; thus, the missing or damaged data may cause certain processes to
function poorly.
But there are also legal or regulatory risks, as more
and more texts stipulate obligations for data; the General Data Protection
Regulation is just one example, albeit the most well known, no doubt. The
risks can also be strategic when they concern the reputation of the company or
lead the company to make bad decisions.
Finally, some authors have taken an approach based on externalities
for open data, which are available to all but which, by making the most of
them, can bring a benefit to society at large.
The concept of data value is linked to the objective of
proper data governance: maximising data value by minimising the associated risks and costs.3
By adopting this three-pronged approach (value, risk and cost), we can better obtain
a holistic view of data value and improve its valuation.
These three aspects are complementary, but we must not
exclude context.
Indeed, the same information does not have the same
value depending on the temporal, geographic, economic or political context in
which the valuation process is conducted. The question of why the valuation is
needed must be answered in order to characterise the relevant contextual
elements: political, economic, social, technological, ecological and legal
(PESTEL) in particular.
The object of the valuation must itself be identified.
One of the difficulties in estimating the value of data is choosing the
appropriate level of detail: are we talking about the entirety of an
information system (e.g. the client information system) or
a set of data (e.g. the client database) or indeed a
key piece of information (e.g. the launch price of a competing product)? It
is clear that the value of an information system is not the simple sum of the
value of its components.
Few approaches for the valuation of data are sufficiently
holistic and general to enable their application to any type of data in any
context. Recommendations can be made, for example, the recommendation to choose
between a top-down approach and a bottom-up approach. But the holistic
approach can only be holistic by combining these two value paths.
It is because the company is still unable to measure
the real and potential value of data that it does not make sufficient
investment in data governance and information sharing.
It is a vicious circle that ultimately leads to the company
being unable to realise the full value of data.
A virtuous circle can be built by starting with the
most critical data, for example (but not necessarily) client data, and
gradually getting on board all data actors – producers, transformers, sellers,
distributors, consumers of these data. They have the different points of
view necessary for a holistic approach.
____________
1J. Akoka, I. Comyn-Wattiau, Evaluation de la valeur des données – Modèle et méthode, Record of the 40th Congress of INFORSID (INFormatique des ORganisations et Systèmes d’Information et de Décision), Dijon, 2022 2D. Moody, P. Walsh, Measuring the Value of Information – an Asset Valuation Approach, Record of the European Conference on Information Systems (ECIS), 1999 3World Economic Forum, Articulating Value from Data, White Paper, 2021
‘Is Data conscious?’ This question, asked in relation to a character from
the series Star Trek, is taken up by the philosopher David Chalmers in his
latest book Reality +.1 Data is the name of an android. In
the episode of the series titled ‘The Measure of a Man’, a trial takes place
to determine whether Data is an intelligent and conscious being.
There is no doubt about the intelligence of the humanoid
robot: Data has the
capacity to learn, to understand and to manage new situations. However, the
question of whether Data is conscious remains unanswered. Does Data have an inner
life with perceptions, emotions and conscious thoughts? Or is Data what
philosophers call a ‘zombie’? In philosophy, a zombie is a system that, on
the outside, behaves like a conscious being but, on the inside, has no
conscious experience. It behaves intelligently, but has no inner life or reflexivity
about its actions.
Chalmers star ts with this story to question whether a digital system can be conscious or whether only humans and animals are gifted with consciousness. For this astounding Australian philosopher, a system perfectly simulating the functions of a brain could be conscious in the same way as a biological brain. This leads him to dizzying speculations: in that case, mirroring that logic, isn’t our actual consciousness just theeffect of a simulation? Don’t we already live in a metaverse, and isn’t our god a computer?
If we make the story of the rather aptly named Data an
allegory, we can use it to raise a simple ethical question when we exploit data.
What type of data are we dealing with: Zombie Data or Conscious Data? In
the first case, we harvest data that seem to behave intelligently, but
ultimately their content is empty and without interest. We have all had the
experience of trawling through masses of data for sometimes very little reward,
or even absurd results! We can add that the data transform us, too, into
zombies… Because here we are, reduced to aggregates of outer behaviours
(purchases made, keywords typed into search engines, conversations held on social
media, etc.) supposed to encapsulate our inner desires – which remain a little
more subtle, nevertheless. Zombie Data make Zombie People!
As for Conscious Data, we can be certain that Big
Data do not have the system consciousness that Chalmers deems entirely plausible
in the future. The only thing left to do then is for human outer consciousness
to give meaning to data, to humanise them. This is just like Data the android,
who needs a human friend to evolve, a role fulfilled by Captain Picard in Star
Trek. Conscious People make Conscious Data!
____________
1 David J. Chalmers, “Reality +. Virtual worlds and the problems of philosophy”, Penguin Books/Allen Lane, 2022
Data, one last reason to take an interest in China?
Why should we still take an interest in China? The signals it is sending of a country
locked up, tempted to turn in on itself and asserting an alternative model of
society are now leading people to understand it in terms of risk analysis. The
latest studies from the European and US chambers of commerce in China testify
to a significant re-evaluation in the strategies of foreign companies.1
Yet, in this sombre context, for those of us who have
been working in the country for over 10 years, China is a country that deserves
attention from Europe. The most relevant reasons to take an interest might not be those that
come to mind first, however. Some may even prove discomfiting. What if China
was ahead of the West? Ahead in the thinking that is shaping the world of
tomorrow? In the absence of a commercial El Dorado… ideas!
The source of this Chinese head start is data. The country has numerous advantages: structural
– 18% of the global population provides an unparalleled testing ground to
explore new ideas; economic – its regulation or even the abundance of
tech investments; cultural – the launch of quick & dirty solutions,
which are later improved or abandoned, where Westerners only want to launch
more finished products.
This article aims to analyse through three different
lenses how China considers data. (1) How regulation turns data into a competitive advantage. (2) How data
is at the heart of retail transformation. (3) How it uses data to create new
business models.
1. REGULATION FAVOURING COMPETITIVE ADVANTAGE
The first thoughts on data as a factor of production
started in China at the beginning of the 2000s and continued throughout the
following decade with the creation of a regulatory framework to launch a data
exchange platform.
The turning point came in April 2020 when data was
officially considered as the fifth factor of production, on the same level as
capital, labour, property and technology.
This is effectively the birth certificate of a data
economy considered as the disruptive accelerator for the growth of Chinese
companies.
The first objective of public authorities is to
encourage players to structure their data in such a way as to facilitate their sharing.
For this, the government has put in place public platforms.
From 2019, the SASAC, the governmental body
that supervises state-owned companies, published a list of 28 state-owned and
private companies tasked with federating their industries through sectoral
platforms.
The China Aerospace Science & Industry Corp. is in charge of aeronautics; the CSSC,
of naval construction; Haier, via its COSMOPLAT platform, of 15
different sectors (electronic, industrial manufacturing, textile, chemical
industry, etc.).
The second objective aims to create a data exchange platform.
Led by local
authorities (Shanghai, Beijing, Shenzhen, Hainan, Guangzhou), this takes the
form of freetrade zones and pilot data trading platforms.
Thus, the Shanghai Data Exchange Centre (SDEC) is similar to a technology exchange guaranteeing the legal conformity of transactions for member companies, whilst the Beijing International Big Data Exchange favours the sharing of public data at national level with the hope of international expansion.
These initiatives show that China has started to lay
the foundations of the data economy.
It is trying different things, experimenting with answers to the most crucial question: how can data be transformed into an item of value? A first challenge lies in the multitudes of data – personal, financial, industrial, meta, etc. – as well as their of ten incompatible formats.
Their standardisation and exchange protocols are
crucial stakes for leadership in the world of tomorrow. In parallel, we also
have the question of valuing data. The SDEC is currently working on
these questions of ownership, source, quality, certification and price setting.
We can see it: China has started thinking about the
new asset that data has become. It is advancing in incremental steps leveraging public and private
economic actors, thus building a gigantic world of possibilities.
2. DATA, AT THE HEART OF RETAIL TRANSFORMATION
‘Today, we don’t know how to monetise data, but we do
know that people will not live without data. Walmart generates data from its
sales, whilst we do e-commerce and logistics to acquire data. People talk to me
about GMV2 but we’re not looking for GMV. We sell purely to get
data, and that is very different to Walmart.’3
This is, in just a few words from Jack Ma, founder of Alibaba,
the fundamental difference between China and the
West:
WHEREAS WE SEE E-COMMERCE AS AN
ADDITIONAL DISTRIBUTION CHANNEL, THE CHINESE SEE IT AS A DATA MINE.
Though comparing the combined figures for Black Friday, Thanksgiving and Cyber Monday in the US ($25 billion) with the Chinese Double 11 ($139 billion)4 shows China’s significant lead, it does not take account in any way of this difference of philosophy.
The fact that China is much more connected
than the
US and Europe, that 99.6% of Chinese internet users access the internet from
their smartphones, is hiding what is most important.
Limiting ourselves to quantitative
analyses would be to misunderstand the disruptive nature of Chinese retail. The
giants of e-commerce have created innovative payment solutions leading to their
dominance of retail and their leadership in mobile payments.
This explains the dizzying growth of
retail that depends on a fundamentally different approach from traditional
players. Alibaba offers the most complete example with its concept of
New Retail, defined in 2015. Two characteristics shape this model: (1)
Alibaba positions itself above all as an intermediary facilitating exchanges
between retailers and customers. (2) Alibaba has modelled a holistic ecosystem,
each segment feeding into the others thanks to the data created by the
transactional system.
As an intermediary, Alibaba offers retailers its
digital tools in branding, traffic generation, etc. as well as its financial
services that are highly appreciated by SMEs neglected by banks.
Concerning consumers, Alibaba makes
available to them a universal plat form for all their daily needs: social relationships,
administrative operations, consumer loans, etc.
Alibaba therefore sets itself apart from its
Western equivalents. It operates an ecosystem, the purpose of which is to
produce, analyse and monetise data, whilst its Western equivalents remain, despite
their latest developments (cloud, etc.), integrated
distributors whose data is only a result. For Alibaba, retail is the support function, in no way the raison d’être. Its leadership relies less on GMV than on its central position in the generation and exploitation of data. Alibaba has come a long way since Jack Ma’s declaration on 16 June 2016 at the China Internet+ Conference 中國互聯網+峰會 that Alibaba ‘doesn’t know how to monetise its data’!
Since then, seeing huge opportunities far
beyond its current revenues, Alibaba has transformed its ecosystem and its
services. As a result of its perspective on data, China is leading the transformation
of a whole industry, potentially paving the way for its Western counterparts.
3. DATA, A SOURCE OF NEW BUSINESS MODELS
Even though the New Retail example
illustrates China’s capacity to pivot an industry from the sale of goods to
the monetisation of its data, the spectacular development of electric
vehicles highlights its ability to create innovative business models from
scratch.
This is the example of electric charging stations. An electric charging station essentially differs from a fuel station in two ways. First, the charging time encourages users to charge their vehicles at home or place of work, which translates into very low utilisation (below 5%) of charging stations located in public spaces. Second, as the price of electricity is strictly regulated, operators’ very low margins prove insufficient to generate a return on investment. The solution in China was to shift the focus from thedriver (the focal point of the fuel model) to the electric ecosystem.
In order to be successful, a Chinese operator considers itself a service platform for drivers, site providers (i.e. developers), local councils in their town policies, electricity providers, etc. It is not just about selling energy anymore but about optimising flows and prices: traffic, energy flows, etc. The critical point is, once again, data. The start-up X-Charge 智充科技, a specialist in SaaS B2B services, which our Beijing office knows well having worked with them, is illustrative of this business model revolution. It enables charging station operators to analyse their data in real time, adjust their prices by station based on the utilisation rate and road traffic, store electricity under the best conditions and sell it back to electricity providers or building managers during peak periods, etc.
The start-up has developed predictive models of
activity and revenues that are highly appreciated by operators. It comes as no
surprise that Shell Ventures invested during its Series B; beyond a financial
investment, it is a disruptive model that the major company came looking for in
China. It is quite obvious that the race to build the world of tomorrow has
started and China seems intent on establishing its leadership through
innovation guided by the state and relayed by the tech giants. In this
strategy, data is clearly considered a critical asset. It is designed to secure
the country’s future place in the world. In parallel, the monetisation of
data will generate gigantic revenues that only a few players will control
sufficiently to maximise their gains.
In some sectors, only the monetisation of data can, at
least in a transitory phase, make capital-intensive business models viable.
For all these reasons, we consider it essential to take
an interest in these topics and why not to take inspiration from certain
initiatives in China.
____________
1 The latest study is that of the Chambre de Commerce et de l’Industrie France Chine (CCIFC – the France–China chamber of commerce and industry), conducted from 2 to 14 September 2022 with 303 French companies: 79% consider a deterioration in China’s image; 62% see an impact on their profits, 58% are revising their investment strategies in China; 43% do not plan to increase their presence in the next three years; and 16% are considering reducing their presence in China. 2 GMV: Gross Merchandise Value 3Jack Ma speech from China Internet+ Conference (中国互联网+峰会) on 16 June 2016 4 2021 data, sources: Forbes, Bloomberg
Created at the end of 2017 by its three founders, and armed
with four years of research and development, Wintics positions itself as the specialist in
intelligent video analysis for mobility operators. The company markets its
analytical products to four types of mobility infrastructure operator: regional
public authorities, public transport operators, airports and ports.
For regional public authorities, the start-up has developed
a particularly innovative artificial intelligence software solution
(called Cityvision), which can connect automatically to any camera,
whether optical or thermal, old or new, in order to extract large amounts
of data on mobility, the safety of public spaces and urban cleanliness. For
example, the software is able to analyse cycle path traffic and use in order to
help the city to organise its mobility.
The solution also enables its clients to manage
their infrastructure in real time, for example, by transferring the data
collected and analysed by Wintics to the trafficlight system, helping to
improve the flow of traffic in a highly targeted way.
For transport operators, Wintics provides the
opportunity to visualise in real time movement flows and the level of passenger
traffic. Airport operators are able, for example, to supervise the various
passenger flows arriving on site and to facilitate their movement around the
airport thanks to the realtime management of queues at check-in desks and
passport control.
Wintics is positioning itself as an innovative and strategic solution to make cities greener by prioritising the development of soft mobility, the attractiveness of public transport and the improvement of travel flows. The camera has become a management tool for an efficient and safer urban environment.
Wintics is an entirely French company that proposes a solution 100% made in France. It won the 2018 and 2019 editions of the Paris Grand Prize for Innovation, was certified by the Greentech Innovation label and in 2020 joined the best artificial intelligence start-ups in Europe in mobility. Together, the Wintics experts (around 15 today) have already completed various projects in over 30 French cities.
As Victor Hugo did for the toilers of the sea, we must start with a homage to all toilers of data.
Observe the chief data officer setting out the fundamental
difference between ‘raw data’, ‘information’ and ‘knowledge’ and reminding
us of the oh-so complex nature of switching from one category to another.
Watch the CIO mobilising exponential technologies
through connected platforms to capitalise on the organisation’s digital and
information assets more quickly.
Pause for a moment to appreciate the grace of a
Baudelairean gesture. The data scientist isbinfusing data with art: ‘You
gave me your mud and I have turned it to gold’, he proclaims!
Pick up speed again with the decision-maker, on the
lookout for some form of informational advantage. Embark on a trip with the CEO
over rough seas, taking the organisation on a path to difficult data-driven
transformations!
The HR director might be in charge of creating
dedicated paths to attract and retain these rare profiles, but the head of
finance is more interested in the multiple forms of data value: economic, financial,
utility, market, exchange… How can we assess this intangible asset?
Time to move on and applaud! At the front of the stage, the politician
sets limits to all things digital and tidies the mess made by the use of our
private data!
Make room for thought. Behind the curtain, the philosopher disturbs the order of our digital lives and challenges the Data-Being. Is binary now the language of truth? Is it possible to translate all human experience into 0s and 1s?
When a topic as multifaceted as data mobilises so many profiles and so much knowledge, capital and liquidity, intelligence and technique, material to argue for and against… when this dialectic gives rise to so much wealth and so many new forms of living together, it is because there lies, at its heart, an essential debate that must be brought to life.
For our sixth edition of Accuracy Talks Straight, Jean Barrère presents the editorial, before letting Romain Proglio introduce us to Wintics, the specialist in intelligent video analysis for mobility operators. We will then analyse data in China with Frédéric Recordon and Helena Javitte. Sophie Chassat, Philosopher and partner at Wemean, will ask the question of whether data has a conscience or not. Then, we will evaluate our data assets with Isabelle Comyn-Wattiau, Professor at ESSEC Business School, holder of the Information Strategy and Governance Chair. Finally, we will focus on the dual transition to energy and digital with Hervé Goulletquer, our senior economic adviser.
As Victor Hugo did for the toilers of the sea, we must start with a homage to all toilers of data.
Observe the chief data officer setting out the fundamental
difference between ‘raw data’, ‘information’ and ‘knowledge’ and reminding
us of the oh-so complex nature of switching from one category to another.
Watch the CIO mobilising exponential technologies
through connected platforms to capitalise on the organisation’s digital and
information assets more quickly.
Pause for a moment to appreciate the grace of a
Baudelairean gesture. The data scientist isbinfusing data with art: ‘You
gave me your mud and I have turned it to gold’, he proclaims!
Pick up speed again with the decision-maker, on the
lookout for some form of informational advantage. Embark on a trip with the CEO
over rough seas, taking the organisation on a path to difficult data-driven
transformations!
The HR director might be in charge of creating
dedicated paths to attract and retain these rare profiles, but the head of
finance is more interested in the multiple forms of data value: economic, financial,
utility, market, exchange… How can we assess this intangible asset?
Time to move on and applaud! At the front of the stage, the politician
sets limits to all things digital and tidies the mess made by the use of our
private data!
Make room for thought. Behind the curtain, the philosopher disturbs the order of our digital lives and challenges the Data-Being. Is binary now the language of truth? Is it possible to translate all human experience into 0s and 1s?
When a topic as multifaceted as data mobilises so many profiles and so much knowledge, capital and liquidity, intelligence and technique, material to argue for and against… when this dialectic gives rise to so much wealth and so many new forms of living together, it is because there lies, at its heart, an essential debate that must be brought to life.
Created at the end of 2017 by its three founders, and armed
with four years of research and development, Wintics positions itself as the specialist in
intelligent video analysis for mobility operators. The company markets its
analytical products to four types of mobility infrastructure operator: regional
public authorities, public transport operators, airports and ports.
For regional public authorities, the start-up has developed
a particularly innovative artificial intelligence software solution
(called Cityvision), which can connect automatically to any camera,
whether optical or thermal, old or new, in order to extract large amounts
of data on mobility, the safety of public spaces and urban cleanliness. For
example, the software is able to analyse cycle path traffic and use in order to
help the city to organise its mobility.
The solution also enables its clients to manage
their infrastructure in real time, for example, by transferring the data
collected and analysed by Wintics to the trafficlight system, helping to
improve the flow of traffic in a highly targeted way.
For transport operators, Wintics provides the
opportunity to visualise in real time movement flows and the level of passenger
traffic. Airport operators are able, for example, to supervise the various
passenger flows arriving on site and to facilitate their movement around the
airport thanks to the realtime management of queues at check-in desks and
passport control.
Wintics is positioning itself as an innovative and strategic solution to make cities greener by prioritising the development of soft mobility, the attractiveness of public transport and the improvement of travel flows. The camera has become a management tool for an efficient and safer urban environment.
Wintics is an entirely French company that proposes a solution 100% made in France. It won the 2018 and 2019 editions of the Paris Grand Prize for Innovation, was certified by the Greentech Innovation label and in 2020 joined the best artificial intelligence start-ups in Europe in mobility. Together, the Wintics experts (around 15 today) have already completed various projects in over 30 French cities.
Data, one last reason to take an interest in China?
Why should we still take an interest in China? The signals it is sending of a country
locked up, tempted to turn in on itself and asserting an alternative model of
society are now leading people to understand it in terms of risk analysis. The
latest studies from the European and US chambers of commerce in China testify
to a significant re-evaluation in the strategies of foreign companies.1
Yet, in this sombre context, for those of us who have
been working in the country for over 10 years, China is a country that deserves
attention from Europe. The most relevant reasons to take an interest might not be those that
come to mind first, however. Some may even prove discomfiting. What if China
was ahead of the West? Ahead in the thinking that is shaping the world of
tomorrow? In the absence of a commercial El Dorado… ideas!
The source of this Chinese head start is data. The country has numerous advantages: structural
– 18% of the global population provides an unparalleled testing ground to
explore new ideas; economic – its regulation or even the abundance of
tech investments; cultural – the launch of quick & dirty solutions,
which are later improved or abandoned, where Westerners only want to launch
more finished products.
This article aims to analyse through three different
lenses how China considers data. (1) How regulation turns data into a competitive advantage. (2) How data
is at the heart of retail transformation. (3) How it uses data to create new
business models.
1. REGULATION FAVOURING COMPETITIVE ADVANTAGE
The first thoughts on data as a factor of production
started in China at the beginning of the 2000s and continued throughout the
following decade with the creation of a regulatory framework to launch a data
exchange platform.
The turning point came in April 2020 when data was
officially considered as the fifth factor of production, on the same level as
capital, labour, property and technology.
This is effectively the birth certificate of a data
economy considered as the disruptive accelerator for the growth of Chinese
companies.
The first objective of public authorities is to
encourage players to structure their data in such a way as to facilitate their sharing.
For this, the government has put in place public platforms.
From 2019, the SASAC, the governmental body
that supervises state-owned companies, published a list of 28 state-owned and
private companies tasked with federating their industries through sectoral
platforms.
The China Aerospace Science & Industry Corp. is in charge of aeronautics; the CSSC,
of naval construction; Haier, via its COSMOPLAT platform, of 15
different sectors (electronic, industrial manufacturing, textile, chemical
industry, etc.).
The second objective aims to create a data exchange platform.
Led by local
authorities (Shanghai, Beijing, Shenzhen, Hainan, Guangzhou), this takes the
form of freetrade zones and pilot data trading platforms.
Thus, the Shanghai Data Exchange Centre (SDEC) is similar to a technology exchange guaranteeing the legal conformity of transactions for member companies, whilst the Beijing International Big Data Exchange favours the sharing of public data at national level with the hope of international expansion.
These initiatives show that China has started to lay
the foundations of the data economy.
It is trying different things, experimenting with answers to the most crucial question: how can data be transformed into an item of value? A first challenge lies in the multitudes of data – personal, financial, industrial, meta, etc. – as well as their of ten incompatible formats.
Their standardisation and exchange protocols are
crucial stakes for leadership in the world of tomorrow. In parallel, we also
have the question of valuing data. The SDEC is currently working on
these questions of ownership, source, quality, certification and price setting.
We can see it: China has started thinking about the
new asset that data has become. It is advancing in incremental steps leveraging public and private
economic actors, thus building a gigantic world of possibilities.
2. DATA, AT THE HEART OF RETAIL TRANSFORMATION
‘Today, we don’t know how to monetise data, but we do
know that people will not live without data. Walmart generates data from its
sales, whilst we do e-commerce and logistics to acquire data. People talk to me
about GMV2 but we’re not looking for GMV. We sell purely to get
data, and that is very different to Walmart.’3
This is, in just a few words from Jack Ma, founder of Alibaba,
the fundamental difference between China and the
West:
WHEREAS WE SEE E-COMMERCE AS AN
ADDITIONAL DISTRIBUTION CHANNEL, THE CHINESE SEE IT AS A DATA MINE.
Though comparing the combined figures for Black Friday, Thanksgiving and Cyber Monday in the US ($25 billion) with the Chinese Double 11 ($139 billion)4 shows China’s significant lead, it does not take account in any way of this difference of philosophy.
The fact that China is much more connected
than the
US and Europe, that 99.6% of Chinese internet users access the internet from
their smartphones, is hiding what is most important.
Limiting ourselves to quantitative
analyses would be to misunderstand the disruptive nature of Chinese retail. The
giants of e-commerce have created innovative payment solutions leading to their
dominance of retail and their leadership in mobile payments.
This explains the dizzying growth of
retail that depends on a fundamentally different approach from traditional
players. Alibaba offers the most complete example with its concept of
New Retail, defined in 2015. Two characteristics shape this model: (1)
Alibaba positions itself above all as an intermediary facilitating exchanges
between retailers and customers. (2) Alibaba has modelled a holistic ecosystem,
each segment feeding into the others thanks to the data created by the
transactional system.
As an intermediary, Alibaba offers retailers its
digital tools in branding, traffic generation, etc. as well as its financial
services that are highly appreciated by SMEs neglected by banks.
Concerning consumers, Alibaba makes
available to them a universal plat form for all their daily needs: social relationships,
administrative operations, consumer loans, etc.
Alibaba therefore sets itself apart from its
Western equivalents. It operates an ecosystem, the purpose of which is to
produce, analyse and monetise data, whilst its Western equivalents remain, despite
their latest developments (cloud, etc.), integrated
distributors whose data is only a result. For Alibaba, retail is the support function, in no way the raison d’être. Its leadership relies less on GMV than on its central position in the generation and exploitation of data. Alibaba has come a long way since Jack Ma’s declaration on 16 June 2016 at the China Internet+ Conference 中國互聯網+峰會 that Alibaba ‘doesn’t know how to monetise its data’!
Since then, seeing huge opportunities far
beyond its current revenues, Alibaba has transformed its ecosystem and its
services. As a result of its perspective on data, China is leading the transformation
of a whole industry, potentially paving the way for its Western counterparts.
3. DATA, A SOURCE OF NEW BUSINESS MODELS
Even though the New Retail example
illustrates China’s capacity to pivot an industry from the sale of goods to
the monetisation of its data, the spectacular development of electric
vehicles highlights its ability to create innovative business models from
scratch.
This is the example of electric charging stations. An electric charging station essentially differs from a fuel station in two ways. First, the charging time encourages users to charge their vehicles at home or place of work, which translates into very low utilisation (below 5%) of charging stations located in public spaces. Second, as the price of electricity is strictly regulated, operators’ very low margins prove insufficient to generate a return on investment. The solution in China was to shift the focus from thedriver (the focal point of the fuel model) to the electric ecosystem.
In order to be successful, a Chinese operator considers itself a service platform for drivers, site providers (i.e. developers), local councils in their town policies, electricity providers, etc. It is not just about selling energy anymore but about optimising flows and prices: traffic, energy flows, etc. The critical point is, once again, data. The start-up X-Charge 智充科技, a specialist in SaaS B2B services, which our Beijing office knows well having worked with them, is illustrative of this business model revolution. It enables charging station operators to analyse their data in real time, adjust their prices by station based on the utilisation rate and road traffic, store electricity under the best conditions and sell it back to electricity providers or building managers during peak periods, etc.
The start-up has developed predictive models of
activity and revenues that are highly appreciated by operators. It comes as no
surprise that Shell Ventures invested during its Series B; beyond a financial
investment, it is a disruptive model that the major company came looking for in
China. It is quite obvious that the race to build the world of tomorrow has
started and China seems intent on establishing its leadership through
innovation guided by the state and relayed by the tech giants. In this
strategy, data is clearly considered a critical asset. It is designed to secure
the country’s future place in the world. In parallel, the monetisation of
data will generate gigantic revenues that only a few players will control
sufficiently to maximise their gains.
In some sectors, only the monetisation of data can, at
least in a transitory phase, make capital-intensive business models viable.
For all these reasons, we consider it essential to take
an interest in these topics and why not to take inspiration from certain
initiatives in China.
____________
1 The latest study is that of the Chambre de Commerce et de l’Industrie France Chine (CCIFC – the France–China chamber of commerce and industry), conducted from 2 to 14 September 2022 with 303 French companies: 79% consider a deterioration in China’s image; 62% see an impact on their profits, 58% are revising their investment strategies in China; 43% do not plan to increase their presence in the next three years; and 16% are considering reducing their presence in China. 2 GMV: Gross Merchandise Value 3Jack Ma speech from China Internet+ Conference (中国互联网+峰会) on 16 June 2016 4 2021 data, sources: Forbes, Bloomberg
Sophie Chassat Philosopher, Partner at Wemean
Zombie Data
‘Is Data conscious?’ This question, asked in relation to a character from
the series Star Trek, is taken up by the philosopher David Chalmers in his
latest book Reality +.1 Data is the name of an android. In
the episode of the series titled ‘The Measure of a Man’, a trial takes place
to determine whether Data is an intelligent and conscious being.
There is no doubt about the intelligence of the humanoid
robot: Data has the
capacity to learn, to understand and to manage new situations. However, the
question of whether Data is conscious remains unanswered. Does Data have an inner
life with perceptions, emotions and conscious thoughts? Or is Data what
philosophers call a ‘zombie’? In philosophy, a zombie is a system that, on
the outside, behaves like a conscious being but, on the inside, has no
conscious experience. It behaves intelligently, but has no inner life or reflexivity
about its actions.
Chalmers star ts with this story to question whether a digital system can be conscious or whether only humans and animals are gifted with consciousness. For this astounding Australian philosopher, a system perfectly simulating the functions of a brain could be conscious in the same way as a biological brain. This leads him to dizzying speculations: in that case, mirroring that logic, isn’t our actual consciousness just theeffect of a simulation? Don’t we already live in a metaverse, and isn’t our god a computer?
If we make the story of the rather aptly named Data an
allegory, we can use it to raise a simple ethical question when we exploit data.
What type of data are we dealing with: Zombie Data or Conscious Data? In
the first case, we harvest data that seem to behave intelligently, but
ultimately their content is empty and without interest. We have all had the
experience of trawling through masses of data for sometimes very little reward,
or even absurd results! We can add that the data transform us, too, into
zombies… Because here we are, reduced to aggregates of outer behaviours
(purchases made, keywords typed into search engines, conversations held on social
media, etc.) supposed to encapsulate our inner desires – which remain a little
more subtle, nevertheless. Zombie Data make Zombie People!
As for Conscious Data, we can be certain that Big
Data do not have the system consciousness that Chalmers deems entirely plausible
in the future. The only thing left to do then is for human outer consciousness
to give meaning to data, to humanise them. This is just like Data the android,
who needs a human friend to evolve, a role fulfilled by Captain Picard in Star
Trek. Conscious People make Conscious Data!
____________
1 David J. Chalmers, “Reality +. Virtual worlds and the problems of philosophy”, Penguin Books/Allen Lane, 2022
Isabelle Comyn-Wattiau Professor at ESSEC Business School, Chair of Information Strategy and Governance
Valuing our wealth of data, a challenge no company can escape
Evoking the value of data in 2022, when the media is overflowing
with examples of companies suffering damage linked to data, may seem
counter-intuitive. Yet, it is well known that data has value, and it is the very reason why
the attacks targeting data are not just simple cyberattacks. More and more,
they aim to seize the informational wealth of the target organisations.
Data security can be broken down into three areas: availability,
confidentiality and integrity. Attacking an information system compromises its availability, thereby endangering
the process that the system underpins. This is what we were able to observe at
the Corbeil-Essonnes hospital a few months ago. Due to a lack of available data
linked to the patient, the diagnosis and care process is made longer and more
expensive. It can even have an impact on patient health by delaying a course of
treatment. During these attacks, we also fear a confidentiality breach of
highly sensitive data.
And, if by chance the computer hackers modify these data, they could compromise their integrity. Thus, all three parts of data security are affected, with extensive damage: first, the health of the patient, but also the reputation of the hospital and the cost linked to the restoration of the information systems and all the affected processes. Limiting ourselves to the security of the data is a reductive defensive approach, even if we cannot rule it out. Determining the value of data is a significant issue for most companies. The press publishes daily success stories of start-ups where a good idea for sharing or pooling highly operational information leads to new, unsuspected value. Thus, in 2021, the market capitalisation of Facebook reached around $1 trillion, but the net value of the company based on its assets and liabilities was only $138 billion.1
The difference in terms of value can be explained by
the data that Facebook collects from its users and uses in turn to feed its
advertising algorithms. For economists, data represent unrivalled assets (in
that they can be consumed by various users without diminishing), which do not
necessarily depreciate as we use them; on the contrary, they can generate new
information, for example when combined with others. For some, however, the
value does depreciate, and very quickly at that. All these characteristics mean
that data fall into a highly specific class of asset that resembles no other
intangible asset, brand, software, patent, etc.
Tackling the value of data also requires us to agree on
the vocabulary to be used: data versus information. Without reopening the debate on the difference
between data and information, we can consider them identical in an initial
approach to the topic. Some, however, will wish to distinguish data – the input
of the system, unmodifiable, a result of measuring a phenomenon – from
information – the output of the system after cleaning, restatement, refinement,
aggregation, transformation, etc.
The value of information has been studied in line with
accounting practices notably by Moody and Walsh.2They first
endeavoured to demonstrate that information can be considered as an asset: it
offers a service and an economic advantage, it is controlled by the
organisation and it is the result of past transactions. They then proposed three
appraisal methods to value information.
The first is based on costs – of acquisition,
processing, conservation, etc. It is the easiest to put in place because these elements are more or less
present in the financial controller’s dashboard. However, these costs do not
reflect all aspects of data, for example the development of their value over
time. The second appraisal method is based on the market and consists of
determining the value that can be obtained by selling the data.
Here, we talk about an exchange value. This approach requires a considerable
effort. Moreover, it is not always possible to obtain a reliable measure of the
value of the data. Finally, the third method is based on utility.
This means appraising the use value of the data by estimating
the economic value that it can generate as a product or a catalyst. But this
value is difficult to anticipate, and estimating the share of its catalytic effect
is also highly complex.
Thus, it seems that the various approaches to
determine the value of data are partial but complementary: some are based on the use value or
exchange value of data; others assume rational corporate behaviour and assess
data at the level of investment made to acquire it and manage it throughout its
life cycle; still others are based on risk. The risk approaches see data as
the target of threats to the company or organisation. Such risks may be
operational; thus, the missing or damaged data may cause certain processes to
function poorly.
But there are also legal or regulatory risks, as more
and more texts stipulate obligations for data; the General Data Protection
Regulation is just one example, albeit the most well known, no doubt. The
risks can also be strategic when they concern the reputation of the company or
lead the company to make bad decisions.
Finally, some authors have taken an approach based on externalities
for open data, which are available to all but which, by making the most of
them, can bring a benefit to society at large.
The concept of data value is linked to the objective of
proper data governance: maximising data value by minimising the associated risks and costs.3
By adopting this three-pronged approach (value, risk and cost), we can better obtain
a holistic view of data value and improve its valuation.
These three aspects are complementary, but we must not
exclude context.
Indeed, the same information does not have the same
value depending on the temporal, geographic, economic or political context in
which the valuation process is conducted. The question of why the valuation is
needed must be answered in order to characterise the relevant contextual
elements: political, economic, social, technological, ecological and legal
(PESTEL) in particular.
The object of the valuation must itself be identified.
One of the difficulties in estimating the value of data is choosing the
appropriate level of detail: are we talking about the entirety of an
information system (e.g. the client information system) or
a set of data (e.g. the client database) or indeed a
key piece of information (e.g. the launch price of a competing product)? It
is clear that the value of an information system is not the simple sum of the
value of its components.
Few approaches for the valuation of data are sufficiently
holistic and general to enable their application to any type of data in any
context. Recommendations can be made, for example, the recommendation to choose
between a top-down approach and a bottom-up approach. But the holistic
approach can only be holistic by combining these two value paths.
It is because the company is still unable to measure
the real and potential value of data that it does not make sufficient
investment in data governance and information sharing.
It is a vicious circle that ultimately leads to the company
being unable to realise the full value of data.
A virtuous circle can be built by starting with the
most critical data, for example (but not necessarily) client data, and
gradually getting on board all data actors – producers, transformers, sellers,
distributors, consumers of these data. They have the different points of
view necessary for a holistic approach.
____________
1J. Akoka, I. Comyn-Wattiau, Evaluation de la valeur des données – Modèle et méthode, Record of the 40th Congress of INFORSID (INFormatique des ORganisations et Systèmes d’Information et de Décision), Dijon, 2022 2D. Moody, P. Walsh, Measuring the Value of Information – an Asset Valuation Approach, Record of the European Conference on Information Systems (ECIS), 1999 3World Economic Forum, Articulating Value from Data, White Paper, 2021
The twin green and digital transitions: resolve for investment and perspicacity for macroeconomic management
The world economy is facing numerous challenges. In the short term, we have an unusual rhythm in prices and a deterioration of growth prospects, taking place in complicated political environments internally in many countries and in a worrying environment internationally (actions of Russia in Ukraine, China around Taiwan and Iran with its Arab neighbours). In the long term, ageing populations are of concern in a number of regions around the globe, economic ‘regulation’ seems to be moving away from the neoliberal corpus towards a more Keynesian approach and the twin green and digital transitions are under way.
Let us pause on this last point. The green transition is essential. It is essential for the preservation of the planet and of all the species that live on it. We must ‘decarbonise’ industry and transport, succeed in the energy renovation of buildings and develop renewable energy on a large scale. The digital transition is also indispensable. It represents the continued process of enabling companies, administrations and households to incorporate new technologies (for example, the cloud, the internet of things or artificial intelligence) in many aspects of their activities. It is worth bearing in mind that the necessary transformations are not purely technological issues; there is a very significant human aspect, with cultural and behavioural adaptations to be made.
The amount of investment in play is impressive. For the eurozone alone, considering an annual envelope of €500 billion a year, for multiple years (certainly no less than 10), does not seem unreasonable. At least that is the order of magnitude determined when summarising some authoritative work on the subject. That represents more than four points of GDP!
The sums committed are so vast that questioning their macroeconomic implications would not be a futile exercise. Let us propose a simple forecast to 2032. The starting point is this resolve for investment linked to the twin transitions: the €500 billion a year, which, when changing from current currency to constant currency (the currency used when measuring the economic growth – that of GDP), becomes €440 billion. The other elements of demand, including investment spending outside of the twin transitions, remain on the same trajectory as observed over the past few years with one exception: extra investment is reflected by more imports and therefore by a reduction in external trade surplus. For this exercise, we assume that there will be no shock from prices or economic policy over the period.
THE TABLE ABOVE HIGHLIGHTS THE MAIN IMPLICATIONS TO
CONSIDER.
THREE ARE PARTICULARLY NOTEWORTHY:
• GDP growth would reach 1.5% a year. Though
this forecast exercise appears reasonable, we must admit that potential for
growth is estimated at 1% a year. Of course, we could consider that the
additional investment effort will contribute to more growth. But we could also
defend the idea that, at least in part, this new accumulation of capital would
replace the destruction of fixed assets that have become obsolete.
We must not forget demographic developments either,
which send a rather negative message about the active population (effect to be
offset perhaps by a return to a situation with close to full employment).
In any case, one suspicion remains: is the
quantification based on these assumptions too optimistic?
• The share of household consumption in GDP would
fall by 2.5 points over the period to reach 49.5%. The current level is
already not particularly high: 52% against an average of 55% between 1995 and
2010 (and a high of 59% in 1980), a period that was therefore followed by a
gradual decline. With the change in macroeconomic ‘regulation’ that we are
starting to see, one that emphasises more inclusive growth, is this really
credible?
• If the investment / GDP ratio must progress by
almost 4.5 points by 2032, then savings must follow; this is how
macroeconomic balances work! Where could this come from? In part from lower
savings in Europe heading towards the rest of the world. We have spoken
about a fall in external trade after all…
For the remainder, it will be necessary to choose between greater efforts by households to save, an increase in corporate profits and/or a decrease in the public deficit.
NONE OF THESE OPTIONS IS SELF-EVIDENT.
The first brings us back to the question of a reduction of household
consumption in GDP; we just saw it.
The second suggests a further distortion of wealth created in
favour of business. But that might go against current sentiment (new
‘regulation’, including the development of ESG – environment, social and
governance – criteria)…
The third seems reasonable, of course, but making the choice
between bringing current spending down and increasing tax income is no easy
task (public investment would most likely be protected).
If this scenario is not quite unacceptable, but still
seems a bit ‘messed up’, then we need to try to imagine what would be reasonable
to expect under the two constraints of succeeding in the twin transitions and
not deluding ourselves on future economic growth.
In fact, the adjustment can only be made in two areas:
either (i) on savings
placed in the rest of the world (the counterpart of the external trade
balance), with the possibility that flows would invert and that the eurozone
would need to ‘import’ foreign savings, or (ii) on a slowdown in consumption
spending (whether household or government).
The first solution would weaken Europe on the international
stage.
In terms of macroeconomics, Europe would appear less solid,
which would reinforce the impression already given by the microeconomy (lower
profitability of companies in the Old World compared with those in the New
World and smaller presence in the sectors of tomorrow) and by po li t ics
(unreso lved issues of integration and its geopolitical role). The resulting
financial balances will be more uncertain, whether in terms of interest rates
or exchange rates; it would be impossible to think otherwise.
The second idea, which is obviously akin to frugality, seems difficult to put in place in a more Keynesian environment that is stamped by an ambition to share wealth more in favour of households. That is, of course, unless public authorities find the winning formula to incentivise households to save more.
We understand it; the ambition to drive investment, for innumerable sound reasons, has destabilising macroeconomic effects. We must anticipate them and prepare ourselves; after all, prevention is better thancure…
Créée fin 2017 par trois fondateurs, et forte de quatre années de R&D, Wintics se positionne comme le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. La société commercialise ses produits d’analyse auprès de quatres types de gestionnaires d’infrastructures de mobilité : collectivités territoriales, gestionnaires de transport en commun, aéroports, ports. Pour les collectivités territoriales, la start-up a développé un logiciel d’Intelligence Artificielle particulièrement innovant (appelé Cityvision), qui peut se brancher automatiquement à n’importe quelle caméra, optique ou thermique, récente ou d’ancienne génération, afin d’en extraire de multiples données sur la mobilité, la sécurité des espaces publics et la propreté urbaine. Le logiciel sera par exemple capable d’analyser la fréquentation et les usages d’une piste cyclable afin d’aider la ville à aménager sa mobilité en conséquence.
La solution offre également à ses clients la capacité de piloter en temps réel l’infrastructure, par exemple en déversant dans les feux tricolores les données collectées et analysées par Wintics, ce qui participe à fluidifier le trafic de manière précise et pertinente.
A destination des gestionnaires de transport, Wintics offre la possibilité de visualiser en temps réel les flux de déplacement et le niveau d’affluence. Les gestionnaires d’aéroports, quant à eux, peuvent par exemple superviser les différents flux de passagers arrivant sur site et fluidifier leurs parcours au sein de l’aéroport grâce à un pilotage en temps réel des files d’attente aux guichets et aux contrôles. Wintics se positionne ainsi comme une solution innovante et stratégique afin de rendre les villes plus vertes en favorisant l’essor et l’aménagement des mobilités douces, l’attractivité des transports en commun et la fluidification des déplacements. La caméra devient un outil de pilotage et d’urbanisme efficace et plus sûr. Enfin, Wintics est une société intégralement française, qui propose une solution 100% made in France.
Lauréats des éditions 2018 et 2019 du programme d’innovation de la ville de Paris, certifiés par le label Greentech Innovation et ayant intégré en 2020 les meilleures start-up d’Intelligence Artificielle en Europe dans le secteur de la mobilité, les experts de Wintics (environ 15 aujourd’hui) ont déjà à leur actif des réalisations dans plus de 30 villes françaises.
“Is Data conscious?” Cette question, posée à propos d’un personnage de la série Star Trek, est reprise par le philosophe David Chalmers dans son dernier ouvrage “Reality +”1. Data est le nom d’un androïde. Dans l’épisode de la série intitulé “The Measure of a Man”, un procès a lieu pour déterminer si Data est un être intelligent et conscient.
Pas de doute sur l’intelligence du robot humanoïde : Data a la capacité d’apprendre, de comprendre et de gérer des situations nouvelles. En revanche, la question de savoir si Data est conscient reste sans réponse. Data disposet-il d’une vie intérieure avec des perceptions, des émotions et des pensées conscientes ? Ou Data est-il ce que les philosophe appellent un « zombie » ? En philosophie, un zombie est un système qui, extérieurement, se comporte comme un être conscient, mais qui, intérieurement, n’a aucune expérience consciente. Il se conduit de manière intelligente, mais n’a ni vie intérieure ni réflexivité de ses faits et gestes.
Chalmers part de ce récit pour se demander si un système digital peut être conscient ou si seuls les êtres humains et les animaux sont doués de conscience. Pour ce philosophe australien décoiffant, un système simulant parfaitement le fonctionnement d’un cerveau pourrait être conscient au même titre qu’un cerveau biologique. Ce qui l’entraîne vers de vertigineuses spéculations : mais alors, en miroir, notre conscience actuelle ne serait-elle pas elle-même l’effet d’une simulation ? Ne vivrions-nous pas déjà dans un métavers et notre Dieu ne serait-il pas un ordinateur ?
Si nous faisons de l’histoire du bien nommé Data une allégorie, nous pouvons l’utiliser pour nous poser une question éthique simple lorsque nous exploitons des data. À quel type de data avons-nous affaire : Zombie Data or Conscious Data ? Dans le premier cas, nous récoltons des data qui semblent se comporter intelligemment mais dont in fine le contenu est vide et sans intérêt. Expérience commune : quelle masse de data pour parfois si peu d’enseignements utiles, voire des usages absurdes ! Ajoutons que ces data nous transforment nous aussi en zombies… Car nous voilà réduits à des agrégats de comportements extérieurs (achats effectués, mots-clés tapés sur des moteurs de recherche, conversations sur les réseaux sociaux etc.) censés résumer nos désirs intérieurs – lesquels sont tout de même un peu plus subtils. Zombie Data make Zombie People!
En ce qui concerne les Conscious Data, il est aujourd’hui certain que le Big Data n’a pas la conscience des systèmes que Chalmers juge tout à fait plausible à terme. Reste alors aux consciences extérieures humaines à donner du sens aux data, à les humaniser. Un peu comme l’androïde Data a besoin d’un ami humain pour évoluer : c’est le rôle du Captain Picard dans Star Trek. Conscious People make Conscious Data!
____________
1David J. Chalmers, “Reality +. Virtual worlds and the problems of philosophy”, Penguin Books/Allen Lane, 2022. Non encore traduit en français.
Isabelle Comyn-Wattiau Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’information
Evaluer notre patrimoine de données, un défi auquel aucune entreprise ne peut échapper
Evoquer la valeur de la donnée en 2022, à l’heure où les media regorgent d’exemples d’entreprises qui subissent des préjudices liés aux données, voilà qui est contre-intuitif. Pourtant, cette valeur est bien connue et c’est même la raison pour laquelle les attaques visant les données ne sont pas uniquement des malveillances. Elles visent de plus en plus souvent à prendre possession du patrimoine informationnel de ces organisations.
La sécurité de la donnée peut être déclinée selon le triptyque : disponibilité, confidentialité, intégrité. Mettre à mal un système d’information en compromet la disponibilité et donc met en danger le processus que ce système sous-tend. C’est encore ce qu’on a pu constater à l’hôpital de Corbeil-Essonnes ces derniers mois. Faute de disposer des données liées au patient, le processus de diagnostic et de soins est rendu plus long et plus coûteux. Il peut même impacter la santé du patient en retardant la mise en oeuvre d’un traitement. Mais, lors de ces attaques, on craint aussi la rupture de la confidentialité de données hautement sensibles.
Enfin, si, d’aventure, les pirates informatiques en venaient à modifier ces mêmes données, ils pourraient en compromettre l’intégrité. Ainsi, ce sont les trois pans de la sécurité de la donnée qui sont impactés avec des dommages très nombreux : d’abord la santé du patient, mais aussi la réputation de l’hôpital et enfin les coûts liés à la remise en état du système d’information et de tous les processus impactés. Se limiter à la sécurité de la donnée est une approche défensive réductrice même si on ne peut l’écarter. Evaluer la valeur de la donnée est un enjeu de taille pour la plupart des entreprises. La presse publie quotidiennement des réussites de start-ups où une bonne idée de partage, de mise en commun d’une information très opérationnelle conduit à une valeur nouvelle insoupçonnée. Ainsi, en 2021, la capitalisation boursière de Facebook atteignait environ 1 000 milliards de dollars, mais la valeur nette de l’entreprise fondée sur l’actif et le passif n’était que de 138 milliards de dollars3. La différence en termes de valeur s’explique par les données que Facebook collecte auprès des utilisateurs et qu’elle utilise à son tour pour alimenter ses algorithmes publicitaires. Pour les économistes, les données constituent un actif non rival (au sens où elles peuvent être consommées par plusieurs sans diminuer), qui ne se déprécie pas nécessairement quand on l’utilise et peut, au contraire, être génératrice de nouvelles informations, par exemple combinée à d’autres. Pour certaines d’entre elles, la valeur se déprécie très rapidement. Toutes ces caractéristiques en font un actif très spécifique qui ne ressemble pas totalement à aucun autre actif intangible, marque, logiciel, brevet, etc. Aborder la valeur de la donnée nécessite aussi de s’entendre sur le vocabulaire : donnée vs. Information. Sans rouvrir le débat sur la différence entre donnée et information, on peut dans une première approche du sujet les considérer comme identiques. Certains vont cependant distinguer la donnée, entrée du système, non modifiable, résultat de la mesure d’un phénomène de l’information, sortie du système après nettoyage, traitement, affinage, transformation, etc.
La valeur de l’information a été étudiée en cohérence avec lespratiques comptables notamment par Moody et Walsh2. Ils se sont efforcés de démontrer d’abord que l’information peut être considérée comme un actif : elle offre un service et un avantage économique, elle est contrôlée par l’organisation et elle est le résultat de transactions passées. Ils proposent ensuite trois approches d’évaluation de la valeur de l’information. La première est fondée sur les coûts, d’acquisition, de traitement, de conservation, etc. C’est la plus facile à mettre en oeuvre puisque ces éléments sont peu ou prou présents dans les tableaux de bord du contrôleur de gestion. Cependant, ils ne reflètent pas toutes les dimensions de la donnée, par exemple l’évolution de sa valeur dans le temps. La seconde est fondée sur le marché et consiste à évaluer la valeur que l’on pourrait obtenir en vendant cette donnée.
On parle de valeur d’échange. Cette approche requiert un effort conséquent. De plus, il n’est pas toujours possible d’obtenir une mesure fiable de la valeur de cette donnée. Enfin, la troisième est fondée sur l’utilité. Il s’agit d’évaluer la valeur d’usage de la donnée en estimant la valeur économique qu’elle permettra d’obtenir en tant que produit ou en tant que catalyseur. Mais cette valeur est difficile à anticiper et la part de son effet catalytique est aussi très complexe à estimer.
Il apparait ainsi que les nombreuses approches d’évaluation de la valeur de la donnée sont partielles mais complémentaires. Les unes sont fondées sur la valeur d’usage ou la valeur d’échange de la donnée. D’autres font l’hypothèse d’un compor tement rationnel des entreprises et évaluent la donnée au niveau de l’investissement consenti pour l’acquérir et la gérer tout au long de son cycle de vie. Enfin, les approches fondées sur les risques voient la donnée comme l’objet de menaces pour l’entreprise ou l’organisation. Il peut s’agir de risque opérationnel : ainsi, la donnée manquante ou endommagée met en cause le fonctionnement de certains processus. Mais il y a aussi les risques légaux ou réglementaires puisque de plus en plus de textes régissent les obligations à respecter en matière de données. Le Règlement Général sur la Protection des Données n’en est qu’un exemple, le plus démocratisé sans doute. Les risques peuvent aussi être d’ordre stratégique quand ils concernent la réputation de l’entreprise ou conduisent celle-ci à prendre de mauvaises décisions. Enfin, certains auteurs ont adopté une approche par les externalités pour les données ouvertes qui sont a priori disponibles pour tous mais qui, par leur bonne valorisation, peuvent apporter un bénéfice pour la société dans son ensemble.
Le concept de la valeur de la donnée est à relier à l’objectif de sa bonne gouvernance : maximiser la valeur de la donnée en minimisant les risques et les coûts qui lui sont associés1. En adoptant ce triptyque, valeur, risque et coût, on peut mieux appréhender une vision holistique de la valeur de la donnée et améliorer son évaluation. Ces trois dimensions valeur, risque et coût sont complémentaires mais ne nous permettent pas d’exclure le contexte. Ainsi, la même information n’a pas la même valeur selon le contexte temporel, géographique, économique, politique dans lequel le processus d’évaluation s’inscrit. Il faut répondre à la question du pourquoi de l’évaluation pour pouvoir caractériser les éléments per tinents du contexte : politique, économique, social , technologi que, écologique et légal (PESTEL) notamment. L’objet lui-même de l’évaluation doit être précisé. Une des difficultés dans l’estimation de la valeur de la donnée est de choisir la granularité adéquate : s’agit-il de l’ensemble d’un système d’information (le système d’information client) ou d’un jeu de données (la base de données des clients) ou encore d’une information clé (le prix de lancement du produit concurrent) ? Il est clair que la valeur d’un système d’information n’est pas la simple agrégation de la valeur de ses composants.
Il existe peu d’approches d’évaluation de la valeur de la donnée qui soient suffisamment holistiques et générales, permettant une application à tout type de donnée dans n’importe quel contexte. Des recommandations existent comme, par exemple, celle de choisir entre une approche descendante et une approche ascendante. Au contraire, l’approche holistique ne peut l’être qu’en combinant ces deux parcours de la valeur.
C’est parce que l’entreprise est encore incapable de mesurer la valeur réelle et potentielle des données qu’elle n’investit pas suffisamment dans la gouvernance des données et le partage des informations.
C’est un cercle vicieux puisque cela la rend finalement incapable de réaliser la pleine valeur. Le cercle vertueux peut se bâtir en commençant par les données les plus critiques, par exemple (mais pas nécessairement) la donnée client, et en embarquant progressivement tous les acteurs de la donnée, producteurs, « transformeurs », vendeurs, distributeurs, consommateurs de cette donnée. Ils ont les différents points de vue nécessaires à l’approche holistique.
____________
1J. Akoka, I. Comyn-Wattiau, « Evaluation de la valeur des données – Modèle et méthode », Actes du 40ème congrès INFORSID (INFormatique des ORganisations et Systèmes d’Information et de Décision), Dijon, 2022. 2D. Moody, P. Walsh, « Measuring the Value of Information – an Asset Valuation Approach », Actes de la conférence européenne sur les systèmes d’information (ECIS), 1999. 3A. Neely, « Why You Should Be Treating Your Data As An Asset », Anmut, https://www.anmut.co.uk/why-you-should-betreating-your-data-as-an-asset/
La double transition énergétique et digitale : Volontarisme pour l’investissement et clairvoyance pour le pilotage macroéconomique
L’économie mondiale est confrontée à de nombreux enjeux. Dans une perspective cour te, un tempo inusité des prix et une dégradation des perspectives de croissance, le tout dans un contexte politique compliqué sur le front intérieur dans de nombreux pays et inquiétant en matière de relations internationales (les comportements de la Russie en Ukraine, de la Chine autour de Taïwan et de l’Iran avec ses voisins arabes) ; dans une perspective longue, le vieillissement démographique concerne beaucoup de régions autour du globe, la « régulation » économique paraît s’éloigner du corpus néolibéral pour revenir vers une approche davantage keynésienne et une double transition, énergétique et digitale, est engagée.
Arrêtons-nous sur ce dernier point. La transition énergétique s’impose. Il y va de la préservation de la planète et de toutes les espèces qui y vivent. Il va falloir « décarboner » l’industrie et les transports, réussir la rénovation thermique des bâtiments et développer à grande échelle les énergies renouvelables. La transition digitale est aussi un impératif. Il s’agit d’un processus continu permettant aux entreprises, aux administrations et aux ménages d’intégrer les nouvelles technologies (par exemple le cloud, l’internet des objets ou l’intelligence artificielle) à beaucoup des aspects de leurs activités. En sachant que les transformations nécessaires ne répondent pas qu’à des problématiques technologiques. Il y a un aspect humain très important, avec des adaptations culturelles et comportementales à mener.
Les montant des investissements en jeu est impressionnant. En s’arrêtant à la seule Zone Euro, retenir une enveloppe annuelle de 500 milliards d’euros par an et ceci pendant de nombreuses années (sans doute plus de 10 ans) ne paraît pas déraisonnable. C’est du moins l’ordre de grandeur auquel on arrive en faisant la synthèse de quelques travaux « dignes de foi ». Cela représente plus de 4 points de PIB !
Les sommes engagées sont d’une telle taille qu’il ne semble pas inutile de s’interroger sur leurs implications macroéconomiques. Proposons un chiffrage prospectif simple à l’horizon 2032. Le point de départ est ce volontarisme en matière d’investissement, lié à la double transition : les « fameux » 500 milliards d’euros par an, qui, en passant d’une référence en monnaie courante à une autre en monnaie constante (celle retenue dans la mesure de la croissance économique – celle du PIB -), deviennent 440 milliards. Les autres éléments de la demande, y compris les dépenses d’investissements hors cette double transition, restent sur la tendance observée au cours des années passées. A un détail près toutefois ; le surcroît d’investissement se traduit par plus d’importations et donc par une réduction de l’excédent extérieur. Nous faisons aussi l’hypothèse qu’aucun choc de prix ou de politique économique n’intervient sur la période.
LE TABLEAU CI-DESSUS REPREND LES PRINCIPALES IMPLICATIONS À PRENDRE EN COMPTE. TROIS D’ENTRE ELLES SONT PARTICULIÈREMENT NOTABLES :
• La croissance du PIB atteindrait 1,5% l’an. Si le chiffrage n’apparaît pas a priori exagéré, il faut admettre que le potentiel de croissance est plutôt estimé à 1% l’an. Bien sûr, on peut considérer que l’effort supplémentaire d’investissement contribuera à plus de croissance. Mais à rebours on pourrait défendre l’idée que pour partie au moins cette accumulation nouvelle de capital se substituera à une destruction d’immobilisations devenues obsolètes.
Sans oublier les évolutions démographiques qui envoient un message plutôt défavorable pour ce qui est de la population active (effet à peut-être compenser par un retour à une situation proche du plein emploi).
LE TABLEAU CI-DESSUS REPREND LES PRINCIPALES IMPLICATIONS À PRENDRE EN COMPTE. TROIS D’ENTRE ELLES SONT PARTICULIÈREMENT NOTABLES :
• La croissance du PIB atteindrait 1,5% l’an. Si le chiffrage n’apparaît pas a priori exagéré, il faut admettre que le potentiel de croissance est plutôt estimé à 1% l’an. Bien sûr, on peut considérer que l’effort supplémentaire d’investissement contribuera à plus de croissance. Mais à rebours on pourrait défendre l’idée que pour partie au moins cette accumulation nouvelle de capital se substituera à une destruction d’immobilisations devenues obsolètes.
Sans oublier les évolutions démographiques qui envoient un message plutôt défavorable pour ce qui est de la population active (effet à peut-être compenser par un retour à une situation proche du plein emploi).
Bref, une suspicion demeure :
le chiffrage induit par les hypothèses retenues n’est-il pas trop optimiste ?
• La part de la consommation des ménages dans le PIB reculerait de 2,5 points sur la période, pour atteindre 49,5%. Le niveau actuel n’est déjà pas très élevé : 52% contre une moyenne de 55% entre 1995 et 2010 (et un point haut à 59% en 1980), période qui a donc été suivie par une décrue progressive.
Avec le changement de « régulation » macroéconomique qu’on voit poindre et qui met l’accent sur une croissance plus inclusive, est-ce bien crédible ?
• Si le ratio investissement/PIB doit progresser de près de 4,5 points d’ici à 2032, alors l’épargne devra suivre ; les équilibres macroéconomiques sont ainsi faits ! D’où cela pourra-t-il venir ? En partie d’une moindre épargne européenne se dirigeant vers le reste du monde.
N’avons-nous pas retenu l’hypothèse d’une réduction de l’excédent extérieur ? Pour le reste, il faudra choisir entre un plus grand effort d’épargne des ménages, une augmentation des profits des entreprises et /ou une baisse du déficit des comptes publics.
AUCUNE DES OPTIONS NE VA DE SOI.
La première renvoie à la question de la réduction de la consommation des ménages dans le PIB ; on vient de le voir.
La seconde suggère une nouvelle déformation de la richesse créée en faveur des entreprises. N’est-ce pas contradictoire avec l’air du temps (nouvelle « régulation », dont le développement des critères ESG – Environnement, Social et Gouvernance -) ?
La troisième semble raisonnable, bien sûr ; mais comment choisir entre repli des dépenses courantes et hausse des prélèvements (l’investissement public serait très certainement « sanctuarisé ») ? Si ce scénario n’est pas celui de l’inacceptable, mais apparaît tout de même un peu « mal foutu », alors, il faut essayer de concevoir ce qui serait raisonnable d’anticiper sous les deux contraintes de réussir la double transition et de ne pas s’illusionner de trop sur les performances à venir en termes de croissance économique.
En fait, l’ajustement ne peut porter que, soit sur l’épargne placée dans le reste du monde (la contrepar tie de l’équilibre du compte des biens et services avec l’extérieur), avec la possibilité que les flux s’inversent et que la Zone Euro doive « importer » de l’épargne étrangère, soit sur un ralentissement des dépenses de consommation (qu’il s’agisse des ménages et/ou des administrations).
La première solution fragiliserait l’Europe sur la scène internationale.
Macroéconomiquement, elle apparaîtra moins solide, ce qui renforcera l’impression déjà tirée de la microéconomie (moindre rentabilité des entreprises du « vieux continent » par rapport à celles du « nouveau monde » et moindre présence dans les secteurs d’avenir) et de la politique (les problématiques non résolues de l’intégration et du rôle géopolitique).
Comment ne pas considérer alors que les équilibres financiers apparaitront plus incertains, qu’il s’agisse du niveau des taux d’intérêt ou du taux de change ?
La seconde idée, qui évidemment rime avec frugalité, semble difficile à mettre en place, dans un environnement à la fois plus keynésien et marqué du sceau de l’ambition d’un partage de la richesse plus en faveur des ménages. A moins que les pouvoirs publics trouvent la martingale pour inciter ceux-ci à épargner davantage.
On le comprend ; l’ambition de pousser les feux de l’investissement, pour des tas de bonnes raisons, a des effets macroéconomiques déstabilisants. Il faut anticiper et s’y préparer ; mieux vaut prévenir que guérir…
La data, ultime raison de s’intéresser à la Chine ?
Pour quelles raisons faudrait-il encore s’intéresser à la Chine ? Les signaux qu’elle envoie d’un pays cadenassé, tenté par un repli sur soi, affirmant un modèle sociétal alternatif, conduisent désormais à l’appréhender sous l’angle d’une analyse de risques. Les dernières études des chambres de commerces européennes et américaine en Chine témoignent d’une réévaluation significative des stratégies des entreprises étrangères1.
Et pourtant dans ce contexte assombri, pour nous qui travaillons en Chine depuis plus de 10 ans, la Chine est un pays qui mérite l’attention des Européens. Mais les raisons les plus pertinentes de s’y intéresser ne sont pas forcément celles qui viennent à l’esprit en premier. Certaines pourraient même s’avérer dérangeantes. Et si la Chine était en avance sur l’Occident ? En avance dans les réflexions qui structurent le monde de demain ? A défaut d’un eldorado mercantile… des idées !
A la source de l’avance chinoise se trouve la donnée. Le pays dispose de nombreux atouts. Structurel : 18% de la population mondiale offre une masse de test inégalable. Conjoncturel : sa réglementation ou encore l’abondance des investissements dans la tech. Culturel : le lancement de solutions quick & dirty qui seront améliorées ou abandonnées là où les occidentaux s’efforceront de lancer des produits plus aboutis.
Cet article se propose de scruter sous 3 angles la manière dont la Chine considère la donnée. (1) Comment elle la réglemente pour en faire un avantage concurrentiel. (2) Comment elle est au coeur de la transformation du retail. (3) Comment elle l’utilise pour créer de nouveaux business modèles.
1. UNE RÉGLEMENTATION FAVORISANT L’ÉMERGENCE D’UN AVANTAGE CONCURRENTIEL
Les 1ères réflexions sur les données comme facteur de product ion ont commencé en Chine au début des années 2000 et se sont poursuivies au cours de la décennie suivante par l’édification d’un cadre réglementaire favorisant l’émergence d’un marché des données. Le tournant s’est produit en avril 2020 lorsque la donnée a été of ficiellement considérée comme le 5ème facteur de production, au même titre que le capital, la main d’oeuvre, le foncier et la technologie.
C’est l’acte de naissance d’une économie des données conçue comme l’accélérateur disruptif de la croissance des entreprises chinoises.
Les autorités encouragent les acteurs à structurer leurs données pour en faciliter le partage. Pour cela, le gouvernement a mis en oeuvre des plateformes publiques. Dès 2019, la SASAC, organe gouvernemental qui supervise les entreprises publiques, a publié une liste de 28 entreprises publiques et privées chargées de fédérer leurs industries au moyen de plateformes sectorielles.
La China Aerospace Science & Industry Corp. a la charge de l’aéronautique, la CSSC de la construction navale ou encore Haier via sa plateforme COSMOPLAT de 15 secteurs différents (électronique, fabrication industrielle, textile, industrie chimique, etc…).
Le second objectif vise à créer un marché des données. Conduit par les collectivités locales (Shanghai, Pékin, Shenzhen, Hainan, Guangzhou), il prend la forme de zones de libre-échange et de plateformes pilotes de trading de données. Ainsi, le Shanghai Data Exchange Center (SDEC) s’apparente à une bourse technologique garantissant la conformité juridique des transactions pour les entreprises adhérentes là où le Beijing International Big Data Exchange favorise le partage des données publiques au niveau national avec des velléités d’applications internationales.
Ces initiatives montrent que la Chine a commencé à poser les bases de l’économie de la donnée. Elle tâtonne, expérimentant des réponses à cette question cruciale entre toutes : comment transformer la donnée en un nouvel objet de valeur ? Un premier défi réside dans la multitude de données : personnelles, financières, industrielles, métadonnées, etc. tout autant qu’aux formats souvent incompatibles.
Leur standardisation et leurs protocoles d’échanges sont des enjeux cruciaux de leadership dans le monde de demain. En parallèle se pose la question de leur valorisation. La SDEC travaille actuellement sur ces questions de propriété, d’origine, de qualité, de certification et de fixation de leur prix.
On le comprend la Chine s’est engagée dans une réflexion sur ce nouvel actif qu’est devenue la donnée. Elle procède par touches successives avec les acteurs économiques privés et publics à mesure que se construit un champ des possibles gigantesque.
2. LA DONNÉE, AU COEUR DE LA TRANSFORMATION DU RETAIL
« Aujourd’hui nous ne savons pas monétiser la donnée mais nous savons que les gens ne vivront pas sans données. Walmart génère des données de ses ventes tandis que nous faisons du e-commerce et de la logistique pour acquérir de la donnée.
Les gens me parlent de GMV2 mais la GMV n’est pas ce que nous cherchons. Nous vendons simplement pour acquérir de la donnée, et c’est bien différent de Walmart »3.
Voici en quelques mots de Jack Ma, fondateur d’Alibaba, exposée la différence fondamentale entre la Chine et l’Occident.
LÀ OÙ NOUS VOYONS DANS LE E-COMMERCE UN CANAL SUPPLÉMENTAIRE DE DISTRIBUTION, LES CHINOIS Y VOIENT UN GISEMENT DE DONNÉES.
Si la comparaison des chiffres combinés du Black Friday, Thanksgiving et Cyber Monday aux Etats-Unis (25 milliards de dollars) au Double 11 chinois (139 milliards de dollars)4 montre une avance significative de la Chine, elle ne rend absolument pas compte de cette différence de philosophie.
Le fait que la Chine soit beaucoup plus connectée que les sociétés américaine et européenne, que 99,6% des internautes chinois accèdent à internet depuis leur smartphone masquent l’essentiel.
Se limiter à des analyses quantitatives revient à méconnaître la nature disruptive du retail chinois. Les géants du e-commerce ont créé les solutions de paiement innovantes entraînant leur mainmise sur le retail et leur leadership sur le paiement mobile.
Ceci explique la croissance fulgurante du retail qui repose sur une approche fondamentalement différente des acteurs traditionnels. Alibaba offre l’exemple le plus abouti avec son concept de New Retail défini en 2015.
Deux caractéristiques façonnent ce modèle :
(1) Alibaba se positionne avant tout comme un intermédiaire facilitant les échanges entre marchands et clients ; et
(2) Alibaba a modelé un écosystème holistique, chaquesegment se nourrissant et nourrissant les autres grâce aux données créées par cet écosystème transactionnel.
Intermédiaire : Alibaba propose aux marchands ses outils digitaux de branding, génération de trafic, etc… tout autant que ses services financiers très appréciés des PME délaissées par les banques. Vis-à-vis des consommateurs : Alibaba met à leur disposition une plateforme universelle pour tous leurs besoins quotidiens : lien social, opérations administratives, prêts à la consommation, etc.
Alibaba se distingue donc profondément de ses équivalents occidentaux. Le 1er opère un écosystème dont l’objet est de produire, analyser et monétiser des données tandis que les seconds restent encore malgré leurs dernières évolutions (cloud, etc…) des distributeurs intégrés dont les données sont une résultante.
Pour Alibaba, le retail est un support, nullement une raison d’être. Son leadership repose moins sur sa GMV que sur sa position centrale dans la génération et l’exploitation des données. Que de chemin parcouru depuis la déclaration de Jack Ma le 16 juin 2016 lors de la China Internet+ Conference 中國互聯網+峰會, Alibaba « ne sait pas monétiser ses données » !
Depuis lors, l’entreprise, entrevoyant d’immenses perspectives bien au-delà de ses revenus actuels, a étoffé son écosystème et ses services. Là se trouve sans nul doute la nouvelle frontière.
3. LA DONNÉE, SOURCE DE NOUVEAUX BUSINESS MODÈLES
Si l’exemple du New Retail illustre cette capacité de la Chine à faire pivoter une industrie de la vente de biens à la monétisation de ses données, le développement spectaculaire des véhicules électriques met en lumière sa capacité à créer ex-nihilo des business modèles innovants.
C’est l’exemple des stations de charges électriques.
Une station de charge électrique diffère d’une station d’essence essentiellement sur deux aspects. D’abord le temps de charge incite les usagers à charger à domicile ou sur leur lieu de travail ce qui se traduit par des taux d’utilisation très faible (inférieur à 5%) des bornes se trouvant dans les espaces publics. Ensuite le prix de l’électricité étant strictement encadré, les marges des opérateurs très faibles s’avèrent insuffisantes pour rentabiliser les investissements.
La solution chinoise a consisté à déplacer le centre d’intérêt du conducteur (point focal du modèle Essence) vers l’écosystème électrique.
Pour être performant un opérateur chinois se conçoit comme une plateforme de services pour les conducteurs, les fournisseurs d’emplacements (i.e. promoteurs), les municipalités dans leur politique de la ville, les électriciens, etc…
Il ne s’agit plus seulement de vendre de l’énergie mais d’optimiser des flux et des prix : trafic automobiles, flux énergétiques, etc… Le point central est une nouvelle fois la donnée.
La start-up X-Charge 智充科技, spécialiste des services SaaS B2B, que notre bureau de Pékin connait bien pour avoir travaillé avec elle, est emblématique de cet te révolution des business modèles.
Elle permet aux opérateurs de stations de charge d’analyser en temps réel leurs données, d’ajuster leurs tarifs par borne en fonction du taux d’utilisation et du trafic routier, de stocker l’électricité aux meilleures conditions et de la revendre aux électriciens ou aux gestionnaires d’immeubles lors de pics, etc… La start-up a développé des modèles prédictifs d’activité et de revenus très appréciés des opérateurs. Nulle surprise que Shell Ventures ait investi lors de sa Série-B ; au-delà d’un investissement financier c’est bien un modèle disruptif que la Major est venue chercher en Chine.
De toute évidence, la course pour construire le monde de demain a commencé et la Chine semble bien décidée à établir son leadership à travers une innovation pilotée par l’Etat et relayée par les géants de la tech. Dans cette stratégie, la donnée est clairement considérée comme un actif clé.
Elle est conçue pour asseoir la place future du pays dans le monde. Parallèlement la monétisation des données génèrera des revenus gigantesques que seuls quelques acteurs maitriseront suffisamment pour maximiser leurs gains.
Dans certains secteurs, seule la monétisation de la donnée peut, au moins en phase transitoire, rendre viable des business modèles très capitalistiques. Pour toutes ces raisons, il nous parait essentiel de s’intéresser à ces sujets et pourquoi pas de s’inspirer de certaines initiatives de la Chine.
____________
1La dernière étude en date est celle de la Chambre de Commerce et de l’Industrie France Chine CCIFC conduite du 2 au 14 septembre 2022 avec 303 entreprises françaises répondantes ; 79% considèrent une détérioration de l’image de la Chine, 62% voient leurs profits affectés, 58% revoient leur stratégie d’investissements en Chine ; 43% ne prévoient pas d’accroître leur présence dans les 3 prochaines années ; 16% envisagent une réduction de leur présence en Chine 2 GMV : Gross Merchandise Value, volume brut de marchandises 3 Discours de Jack Ma lors de la China Internet+ Conference (中國互遜國+痢全) le 16 Juin 2016 4 Données 2021, sources : Forbes, Bloomberg
Comme le fit Victor Hugo pour les travailleurs de la mer, il faut commencer par un hommage appuyé à tous les travailleurs de la data.
Observons le Chief Data Officer structurer la distinction fondamentale entre « donnée brute », « information » et « connaissance », et nous interpeller sur le caractère ô combien complexe du passage d’une catégorie à l’autre.
Voyons le CIO mobiliser des technologies exponentielles à travers des plateformes connectées pour valoriser en accéléré l’actif informationnel de l’organisation.
Un instant. Apprécions la grâce d’un geste baudelairien. Le Data Scientist infuse de l’art dans la data, « vous m’avez donné de la boue, et j’en ai fait de l’or », dit-il !
Reprenons de la vitesse avec le décideur, à l’affût d’un avantage informationnel, et embarquons avec le dirigeant. Sur une mer agitée, il engage son organisation dans des transformations data driven difficiles !
Si le DRH est sommé de créer des parcours dédiés pour attirer et fidéliser ces profils rares, le financier s’interroge lui sur les multiples formes de valeur de la data : valeur de marché, valeur patrimoniale, valeur économique… Comment évaluer cet actif intangible ?
Avançons et applaudissons ! Sur le devant de la scène, le politique pose des limites au tout numérique, et arrange ce qui est dérangé du fait de l’utilisation de nos data privées !
Place à la pensée. Derrière le rideau, le philosophe dérange l’arrangé de nos vies numériques, et questionne l’Être-Data : Le numérique est-il désormais le langage de la vérité ? Tout vécu humain est-il traduisible sous la forme de 0 et de 1 ?
Quand un sujet si protéiforme comme celui de la data mobilise autant de profils et de savoirs, de capital et de liquidité, d’intelligence et de technique, de matière à dire et à contredire, quand de cette dialectique naît tant de richesses et de nouvelles formes de vivre-ensemble, c’est qu’il y a là, au fond, un débat essentiel qu’il s’agit de faire vivre.
Pour notre sixième édition de Accuracy Talks Straight, Jean Barrère introduit le thème de la data, avant de laisser Romain Proglio nous présenter Wintics, le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. Nous analyserons ensuite la data en Chine avec Frédéric Recordon et Helena Javitte. Sophie Chassat, Philosophe et associée chez Wemean, posera la question de si la data a une conscience. Ensuite, nous évaluerons notre patrimoine de données avec Isabelle Comyn-Wattiau, Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’Information. Enfin, nous nous focaliserons sur la double transition énergétique et digitale avec Hervé Goulletquer, Senior Economic Advisor.
Comme le fit Victor Hugo pour les travailleurs de la mer, il faut commencer par un hommage appuyé à tous les travailleurs de la data.
Observons le Chief Data Officer structurer la distinction fondamentale entre « donnée brute », « information » et « connaissance », et nous interpeller sur le caractère ô combien complexe du passage d’une catégorie à l’autre.
Voyons le CIO mobiliser des technologies exponentielles à travers des plateformes connectées pour valoriser en accéléré l’actif informationnel de l’organisation.
Un instant. Apprécions la grâce d’un geste baudelairien. Le Data Scientist infuse de l’art dans la data, « vous m’avez donné de la boue, et j’en ai fait de l’or », dit-il !
Reprenons de la vitesse avec le décideur, à l’affût d’un avantage informationnel, et embarquons avec le dirigeant. Sur une mer agitée, il engage son organisation dans des transformations data driven difficiles !
Si le DRH est sommé de créer des parcours dédiés pour attirer et fidéliser ces profils rares, le financier s’interroge lui sur les multiples formes de valeur de la data : valeur de marché, valeur patrimoniale, valeur économique… Comment évaluer cet actif intangible ?
Avançons et applaudissons ! Sur le devant de la scène, le politique pose des limites au tout numérique, et arrange ce qui est dérangé du fait de l’utilisation de nos data privées !
Place à la pensée. Derrière le rideau, le philosophe dérange l’arrangé de nos vies numériques, et questionne l’Être-Data : le numérique est-il désormais le langage de la vérité ? Tout vécu humain est-il traduisible sous la forme de 0 et de 1 ?
Quand un sujet si protéiforme comme celui de la data mobilise autant de profils et de savoirs, de capital et de liquidité, d’intelligence et de technique, de matière à dire et à contredire, quand de cette dialectique naît tant de richesses et de nouvelles formes de vivre-ensemble, c’est qu’il y a là, au fond, un débat essentiel qu’il s’agit de faire vivre.
Créée fin 2017 par trois fondateurs, et forte de quatre années de R&D, Wintics se positionne comme le spécialiste de l’analyse vidéo intelligente pour les opérateurs de mobilité. La société commercialise ses produits d’analyse auprès de quatres types de gestionnaires d’infrastructures de mobilité : collectivités territoriales, gestionnaires de transport en commun, aéroports, ports. Pour les collectivités territoriales, la start-up a développé un logiciel d’Intelligence Artificielle particulièrement innovant (appelé Cityvision), qui peut se brancher automatiquement à n’importe quelle caméra, optique ou thermique, récente ou d’ancienne génération, afin d’en extraire de multiples données sur la mobilité, la sécurité des espaces publics et la propreté urbaine. Le logiciel sera par exemple capable d’analyser la fréquentation et les usages d’une piste cyclable afin d’aider la ville à aménager sa mobilité en conséquence.
La solution offre également à ses clients la capacité de piloter en temps réel l’infrastructure, par exemple en déversant dans les feux tricolores les données collectées et analysées par Wintics, ce qui participe à fluidifier le trafic de manière précise et pertinente.
A destination des gestionnaires de transport, Wintics offre la possibilité de visualiser en temps réel les flux de déplacement et le niveau d’affluence. Les gestionnaires d’aéroports, quant à eux, peuvent par exemple superviser les différents flux de passagers arrivant sur site et fluidifier leurs parcours au sein de l’aéroport grâce à un pilotage en temps réel des files d’attente aux guichets et aux contrôles. Wintics se positionne ainsi comme une solution innovante et stratégique afin de rendre les villes plus vertes en favorisant l’essor et l’aménagement des mobilités douces, l’attractivité des transports en commun et la fluidification des déplacements. La caméra devient un outil de pilotage et d’urbanisme efficace et plus sûr. Enfin, Wintics est une société intégralement française, qui propose une solution 100% made in France.
Lauréats des éditions 2018 et 2019 du programme d’innovation de la ville de Paris, certifiés par le label Greentech Innovation et ayant intégré en 2020 les meilleures start-up d’Intelligence Artificielle en Europe dans le secteur de la mobilité, les experts de Wintics (environ 15 aujourd’hui) ont déjà à leur actif des réalisations dans plus de 30 villes françaises.
La data, ultime raison de s’intéresser à la Chine ?
Pour quelles raisons faudrait-il encore s’intéresser à la Chine ? Les signaux qu’elle envoie d’un pays cadenassé, tenté par un repli sur soi, affirmant un modèle sociétal alternatif, conduisent désormais à l’appréhender sous l’angle d’une analyse de risques. Les dernières études des chambres de commerces européennes et américaine en Chine témoignent d’une réévaluation significative des stratégies des entreprises étrangères1.
Et pourtant dans ce contexte assombri, pour nous qui travaillons en Chine depuis plus de 10 ans, la Chine est un pays qui mérite l’attention des Européens. Mais les raisons les plus pertinentes de s’y intéresser ne sont pas forcément celles qui viennent à l’esprit en premier. Certaines pourraient même s’avérer dérangeantes. Et si la Chine était en avance sur l’Occident ? En avance dans les réflexions qui structurent le monde de demain ? A défaut d’un eldorado mercantile… des idées !
A la source de l’avance chinoise se trouve la donnée. Le pays dispose de nombreux atouts. Structurel : 18% de la population mondiale offre une masse de test inégalable. Conjoncturel : sa réglementation ou encore l’abondance des investissements dans la tech. Culturel : le lancement de solutions quick & dirty qui seront améliorées ou abandonnées là où les occidentaux s’efforceront de lancer des produits plus aboutis.
Cet article se propose de scruter sous 3 angles la manière dont la Chine considère la donnée. (1) Comment elle la réglemente pour en faire un avantage concurrentiel. (2) Comment elle est au coeur de la transformation du retail. (3) Comment elle l’utilise pour créer de nouveaux business modèles.
1. UNE RÉGLEMENTATION FAVORISANT L’ÉMERGENCE D’UN AVANTAGE CONCURRENTIEL
Les 1ères réflexions sur les données comme facteur de product ion ont commencé en Chine au début des années 2000 et se sont poursuivies au cours de la décennie suivante par l’édification d’un cadre réglementaire favorisant l’émergence d’un marché des données. Le tournant s’est produit en avril 2020 lorsque la donnée a été of ficiellement considérée comme le 5ème facteur de production, au même titre que le capital, la main d’oeuvre, le foncier et la technologie.
C’est l’acte de naissance d’une économie des données conçue comme l’accélérateur disruptif de la croissance des entreprises chinoises.
Les autorités encouragent les acteurs à structurer leurs données pour en faciliter le partage. Pour cela, le gouvernement a mis en oeuvre des plateformes publiques. Dès 2019, la SASAC, organe gouvernemental qui supervise les entreprises publiques, a publié une liste de 28 entreprises publiques et privées chargées de fédérer leurs industries au moyen de plateformes sectorielles.
La China Aerospace Science & Industry Corp. a la charge de l’aéronautique, la CSSC de la construction navale ou encore Haier via sa plateforme COSMOPLAT de 15 secteurs différents (électronique, fabrication industrielle, textile, industrie chimique, etc…).
Le second objectif vise à créer un marché des données. Conduit par les collectivités locales (Shanghai, Pékin, Shenzhen, Hainan, Guangzhou), il prend la forme de zones de libre-échange et de plateformes pilotes de trading de données. Ainsi, le Shanghai Data Exchange Center (SDEC) s’apparente à une bourse technologique garantissant la conformité juridique des transactions pour les entreprises adhérentes là où le Beijing International Big Data Exchange favorise le partage des données publiques au niveau national avec des velléités d’applications internationales.
Ces initiatives montrent que la Chine a commencé à poser les bases de l’économie de la donnée. Elle tâtonne, expérimentant des réponses à cette question cruciale entre toutes : comment transformer la donnée en un nouvel objet de valeur ? Un premier défi réside dans la multitude de données : personnelles, financières, industrielles, métadonnées, etc. tout autant qu’aux formats souvent incompatibles.
Leur standardisation et leurs protocoles d’échanges sont des enjeux cruciaux de leadership dans le monde de demain. En parallèle se pose la question de leur valorisation. La SDEC travaille actuellement sur ces questions de propriété, d’origine, de qualité, de certification et de fixation de leur prix.
On le comprend la Chine s’est engagée dans une réflexion sur ce nouvel actif qu’est devenue la donnée. Elle procède par touches successives avec les acteurs économiques privés et publics à mesure que se construit un champ des possibles gigantesque.
2. LA DONNÉE, AU COEUR DE LA TRANSFORMATION DU RETAIL
« Aujourd’hui nous ne savons pas monétiser la donnée mais nous savons que les gens ne vivront pas sans données. Walmart génère des données de ses ventes tandis que nous faisons du e-commerce et de la logistique pour acquérir de la donnée.
Les gens me parlent de GMV2 mais la GMV n’est pas ce que nous cherchons. Nous vendons simplement pour acquérir de la donnée, et c’est bien différent de Walmart »3.
Voici en quelques mots de Jack Ma, fondateur d’Alibaba, exposée la différence fondamentale entre la Chine et l’Occident.
LÀ OÙ NOUS VOYONS DANS LE E-COMMERCE UN CANAL SUPPLÉMENTAIRE DE DISTRIBUTION, LES CHINOIS Y VOIENT UN GISEMENT DE DONNÉES.
Si la comparaison des chiffres combinés du Black Friday, Thanksgiving et Cyber Monday aux Etats-Unis (25 milliards de dollars) au Double 11 chinois (139 milliards de dollars)4 montre une avance significative de la Chine, elle ne rend absolument pas compte de cette différence de philosophie.
Le fait que la Chine soit beaucoup plus connectée que les sociétés américaine et européenne, que 99,6% des internautes chinois accèdent à internet depuis leur smartphone masquent l’essentiel.
Se limiter à des analyses quantitatives revient à méconnaître la nature disruptive du retail chinois. Les géants du e-commerce ont créé les solutions de paiement innovantes entraînant leur mainmise sur le retail et leur leadership sur le paiement mobile.
Ceci explique la croissance fulgurante du retail qui repose sur une approche fondamentalement différente des acteurs traditionnels. Alibaba offre l’exemple le plus abouti avec son concept de New Retail défini en 2015.
Deux caractéristiques façonnent ce modèle :
(1) Alibaba se positionne avant tout comme un intermédiaire facilitant les échanges entre marchands et clients ; et
(2) Alibaba a modelé un écosystème holistique, chaque segment se nourrissant et nourrissant les autres grâce aux données créées par cet écosystème transactionnel.
Intermédiaire : Alibaba propose aux marchands ses outils digitaux de branding, génération de trafic, etc… tout autant que ses services financiers très appréciés des PME délaissées par les banques. Vis-à-vis des consommateurs : Alibaba met à leur disposition une plateforme universelle pour tous leurs besoins quotidiens : lien social, opérations administratives, prêts à la consommation, etc.
Alibaba se distingue donc profondément de ses équivalents occidentaux. Le 1er opère un écosystème dont l’objet est de produire, analyser et monétiser des données tandis que les seconds restent encore malgré leurs dernières évolutions (cloud, etc…) des distributeurs intégrés dont les données sont une résultante.
Pour Alibaba, le retail est un support, nullement une raison d’être. Son leadership repose moins sur sa GMV que sur sa position centrale dans la génération et l’exploitation des données. Que de chemin parcouru depuis la déclaration de Jack Ma le 16 juin 2016 lors de la China Internet+ Conference 中國互聯網+峰會, Alibaba « ne sait pas monétiser ses données » !
Depuis lors, l’entreprise, entrevoyant d’immenses perspectives bien au-delà de ses revenus actuels, a étoffé son écosystème et ses services. Là se trouve sans nul doute la nouvelle frontière.
3. LA DONNÉE, SOURCE DE NOUVEAUX BUSINESS MODÈLES
Si l’exemple du New Retail illustre cette capacité de la Chine à faire pivoter une industrie de la vente de biens à la monétisation de ses données, le développement spectaculaire des véhicules électriques met en lumière sa capacité à créer ex-nihilo des business modèles innovants.
C’est l’exemple des stations de charges électriques.
Une station de charge électrique diffère d’une station d’essence essentiellement sur deux aspects. D’abord le temps de charge incite les usagers à charger à domicile ou sur leur lieu de travail ce qui se traduit par des taux d’utilisation très faible (inférieur à 5%) des bornes se trouvant dans les espaces publics. Ensuite le prix de l’électricité étant strictement encadré, les marges des opérateurs très faibles s’avèrent insuffisantes pour rentabiliser les investissements.
La solution chinoise a consisté à déplacer le centre d’intérêt du conducteur (point focal du modèle Essence) vers l’écosystème électrique.
Pour être performant un opérateur chinois se conçoit comme une plateforme de services pour les conducteurs, les fournisseurs d’emplacements (i.e. promoteurs), les municipalités dans leur politique de la ville, les électriciens, etc…
Il ne s’agit plus seulement de vendre de l’énergie mais d’optimiser des flux et des prix : trafic automobiles, flux énergétiques, etc… Le point central est une nouvelle fois la donnée.
La start-up X-Charge 智充科技, spécialiste des services SaaS B2B, que notre bureau de Pékin connait bien pour avoir travaillé avec elle, est emblématique de cet te révolution des business modèles.
Elle permet aux opérateurs de stations de charge d’analyser en temps réel leurs données, d’ajuster leurs tarifs par borne en fonction du taux d’utilisation et du trafic routier, de stocker l’électricité aux meilleures conditions et de la revendre aux électriciens ou aux gestionnaires d’immeubles lors de pics, etc… La start-up a développé des modèles prédictifs d’activité et de revenus très appréciés des opérateurs. Nulle surprise que Shell Ventures ait investi lors de sa Série-B ; au-delà d’un investissement financier c’est bien un modèle disruptif que la Major est venue chercher en Chine.
De toute évidence, la course pour construire le monde de demain a commencé et la Chine semble bien décidée à établir son leadership à travers une innovation pilotée par l’Etat et relayée par les géants de la tech. Dans cette stratégie, la donnée est clairement considérée comme un actif clé.
Elle est conçue pour asseoir la place future du pays dans le monde. Parallèlement la monétisation des données génèrera des revenus gigantesques que seuls quelques acteurs maitriseront suffisamment pour maximiser leurs gains.
Dans certains secteurs, seule la monétisation de la donnée peut, au moins en phase transitoire, rendre viable des business modèles très capitalistiques. Pour toutes ces raisons, il nous parait essentiel de s’intéresser à ces sujets et pourquoi pas de s’inspirer de certaines initiatives de la Chine.
____________
1La dernière étude en date est celle de la Chambre de Commerce et de l’Industrie France Chine CCIFC conduite du 2 au 14 septembre 2022 avec 303 entreprises françaises répondantes ; 79% considèrent une détérioration de l’image de la Chine, 62% voient leurs profits affectés, 58% revoient leur stratégie d’investissements en Chine ; 43% ne prévoient pas d’accroître leur présence dans les 3 prochaines années ; 16% envisagent une réduction de leur présence en Chine 2 GMV : Gross Merchandise Value, volume brut de marchandises 3 Discours de Jack Ma lors de la China Internet+ Conference (中國互遜國+痢全) le 16 Juin 2016 4 Données 2021, sources : Forbes, Bloomberg
Sophie Chassat Philosophe, Associée chez Wemean
Zombie Data
“Is Data conscious?” Cette question, posée à propos d’un personnage de la série Star Trek, est reprise par le philosophe David Chalmers dans son dernier ouvrage “Reality +”1. Data est le nom d’un androïde. Dans l’épisode de la série intitulé “The Measure of a Man”, un procès a lieu pour déterminer si Data est un être intelligent et conscient.
Pas de doute sur l’intelligence du robot humanoïde : Data a la capacité d’apprendre, de comprendre et de gérer des situations nouvelles. En revanche, la question de savoir si Data est conscient reste sans réponse. Data disposet-il d’une vie intérieure avec des perceptions, des émotions et des pensées conscientes ? Ou Data est-il ce que les philosophe appellent un « zombie » ? En philosophie, un zombie est un système qui, extérieurement, se comporte comme un être conscient, mais qui, intérieurement, n’a aucune expérience consciente. Il se conduit de manière intelligente, mais n’a ni vie intérieure ni réflexivité de ses faits et gestes.
Chalmers part de ce récit pour se demander si un système digital peut être conscient ou si seuls les êtres humains et les animaux sont doués de conscience. Pour ce philosophe australien décoiffant, un système simulant parfaitement le fonctionnement d’un cerveau pourrait être conscient au même titre qu’un cerveau biologique. Ce qui l’entraîne vers de vertigineuses spéculations : mais alors, en miroir, notre conscience actuelle ne serait-elle pas elle-même l’effet d’une simulation ? Ne vivrions-nous pas déjà dans un métavers et notre Dieu ne serait-il pas un ordinateur ?
Si nous faisons de l’histoire du bien nommé Data une allégorie, nous pouvons l’utiliser pour nous poser une question éthique simple lorsque nous exploitons des data. À quel type de data avons-nous affaire : Zombie Data or Conscious Data ? Dans le premier cas, nous récoltons des data qui semblent se comporter intelligemment mais dont in fine le contenu est vide et sans intérêt. Expérience commune : quelle masse de data pour parfois si peu d’enseignements utiles, voire des usages absurdes ! Ajoutons que ces data nous transforment nous aussi en zombies… Car nous voilà réduits à des agrégats de comportements extérieurs (achats effectués, mots-clés tapés sur des moteurs de recherche, conversations sur les réseaux sociaux etc.) censés résumer nos désirs intérieurs – lesquels sont tout de même un peu plus subtils. Zombie Data make Zombie People!
En ce qui concerne les Conscious Data, il est aujourd’hui certain que le Big Data n’a pas la conscience des systèmes que Chalmers juge tout à fait plausible à terme. Reste alors aux consciences extérieures humaines à donner du sens aux data, à les humaniser. Un peu comme l’androïde Data a besoin d’un ami humain pour évoluer : c’est le rôle du Captain Picard dans Star Trek. Conscious People make Conscious Data!
____________
1David J. Chalmers, “Reality +. Virtual worlds and the problems of philosophy”, Penguin Books/Allen Lane, 2022. Non encore traduit en français.
Isabelle Comyn-Wattiau Professeur à l’ESSEC Business School, Titulaire de la Chaire Stratégie et Gouvernance de l’information
Evaluer notre patrimoine de données, un défi auquel aucune entreprise ne peut échapper
Evoquer la valeur de la donnée en 2022, à l’heure où les media regorgent d’exemples d’entreprises qui subissent des préjudices liés aux données, voilà qui est contre-intuitif. Pourtant, cette valeur est bien connue et c’est même la raison pour laquelle les attaques visant les données ne sont pas uniquement des malveillances. Elles visent de plus en plus souvent à prendre possession du patrimoine informationnel de ces organisations.
La sécurité de la donnée peut être déclinée selon le triptyque : disponibilité, confidentialité, intégrité. Mettre à mal un système d’information en compromet la disponibilité et donc met en danger le processus que ce système sous-tend. C’est encore ce qu’on a pu constater à l’hôpital de Corbeil-Essonnes ces derniers mois. Faute de disposer des données liées au patient, le processus de diagnostic et de soins est rendu plus long et plus coûteux. Il peut même impacter la santé du patient en retardant la mise en oeuvre d’un traitement. Mais, lors de ces attaques, on craint aussi la rupture de la confidentialité de données hautement sensibles.
Enfin, si, d’aventure, les pirates informatiques en venaient à modifier ces mêmes données, ils pourraient en compromettre l’intégrité. Ainsi, ce sont les trois pans de la sécurité de la donnée qui sont impactés avec des dommages très nombreux : d’abord la santé du patient, mais aussi la réputation de l’hôpital et enfin les coûts liés à la remise en état du système d’information et de tous les processus impactés. Se limiter à la sécurité de la donnée est une approche défensive réductrice même si on ne peut l’écarter. Evaluer la valeur de la donnée est un enjeu de taille pour la plupart des entreprises. La presse publie quotidiennement des réussites de start-ups où une bonne idée de partage, de mise en commun d’une information très opérationnelle conduit à une valeur nouvelle insoupçonnée. Ainsi, en 2021, la capitalisation boursière de Facebook atteignait environ 1 000 milliards de dollars, mais la valeur nette de l’entreprise fondée sur l’actif et le passif n’était que de 138 milliards de dollars3. La différence en termes de valeur s’explique par les données que Facebook collecte auprès des utilisateurs et qu’elle utilise à son tour pour alimenter ses algorithmes publicitaires. Pour les économistes, les données constituent un actif non rival (au sens où elles peuvent être consommées par plusieurs sans diminuer), qui ne se déprécie pas nécessairement quand on l’utilise et peut, au contraire, être génératrice de nouvelles informations, par exemple combinée à d’autres. Pour certaines d’entre elles, la valeur se déprécie très rapidement. Toutes ces caractéristiques en font un actif très spécifique qui ne ressemble pas totalement à aucun autre actif intangible, marque, logiciel, brevet, etc. Aborder la valeur de la donnée nécessite aussi de s’entendre sur le vocabulaire : donnée vs. Information. Sans rouvrir le débat sur la différence entre donnée et information, on peut dans une première approche du sujet les considérer comme identiques. Certains vont cependant distinguer la donnée, entrée du système, non modifiable, résultat de la mesure d’un phénomène de l’information, sortie du système après nettoyage, traitement, affinage, transformation, etc.
La valeur de l’information a été étudiée en cohérence avec lespratiques comptables notamment par Moody et Walsh2. Ils se sont efforcés de démontrer d’abord que l’information peut être considérée comme un actif : elle offre un service et un avantage économique, elle est contrôlée par l’organisation et elle est le résultat de transactions passées. Ils proposent ensuite trois approches d’évaluation de la valeur de l’information. La première est fondée sur les coûts, d’acquisition, de traitement, de conservation, etc. C’est la plus facile à mettre en oeuvre puisque ces éléments sont peu ou prou présents dans les tableaux de bord du contrôleur de gestion. Cependant, ils ne reflètent pas toutes les dimensions de la donnée, par exemple l’évolution de sa valeur dans le temps. La seconde est fondée sur le marché et consiste à évaluer la valeur que l’on pourrait obtenir en vendant cette donnée.
On parle de valeur d’échange. Cette approche requiert un effort conséquent. De plus, il n’est pas toujours possible d’obtenir une mesure fiable de la valeur de cette donnée. Enfin, la troisième est fondée sur l’utilité. Il s’agit d’évaluer la valeur d’usage de la donnée en estimant la valeur économique qu’elle permettra d’obtenir en tant que produit ou en tant que catalyseur. Mais cette valeur est difficile à anticiper et la part de son effet catalytique est aussi très complexe à estimer.
Il apparait ainsi que les nombreuses approches d’évaluation de la valeur de la donnée sont partielles mais complémentaires. Les unes sont fondées sur la valeur d’usage ou la valeur d’échange de la donnée. D’autres font l’hypothèse d’un compor tement rationnel des entreprises et évaluent la donnée au niveau de l’investissement consenti pour l’acquérir et la gérer tout au long de son cycle de vie. Enfin, les approches fondées sur les risques voient la donnée comme l’objet de menaces pour l’entreprise ou l’organisation. Il peut s’agir de risque opérationnel : ainsi, la donnée manquante ou endommagée met en cause le fonctionnement de certains processus. Mais il y a aussi les risques légaux ou réglementaires puisque de plus en plus de textes régissent les obligations à respecter en matière de données. Le Règlement Général sur la Protection des Données n’en est qu’un exemple, le plus démocratisé sans doute. Les risques peuvent aussi être d’ordre stratégique quand ils concernent la réputation de l’entreprise ou conduisent celle-ci à prendre de mauvaises décisions. Enfin, certains auteurs ont adopté une approche par les externalités pour les données ouvertes qui sont a priori disponibles pour tous mais qui, par leur bonne valorisation, peuvent apporter un bénéfice pour la société dans son ensemble.
Le concept de la valeur de la donnée est à relier à l’objectif de sa bonne gouvernance : maximiser la valeur de la donnée en minimisant les risques et les coûts qui lui sont associés1. En adoptant ce triptyque, valeur, risque et coût, on peut mieux appréhender une vision holistique de la valeur de la donnée et améliorer son évaluation. Ces trois dimensionsvaleur, risque et coût sont complémentaires mais ne nous permettent pas d’exclure le contexte. Ainsi, la même information n’a pas la même valeur selon le contexte temporel, géographique, économique, politique dans lequel le processus d’évaluation s’inscrit. Il faut répondre à la question du pourquoi de l’évaluation pour pouvoir caractériser les éléments per tinents du contexte : politique, économique, social , technologi que, écologique et légal (PESTEL) notamment. L’objet lui-même de l’évaluation doit être précisé. Une des difficultés dans l’estimation de la valeur de la donnée est de choisir la granularité adéquate : s’agit-il de l’ensemble d’un système d’information (le système d’information client) ou d’un jeu de données (la base de données des clients) ou encore d’une information clé (le prix de lancement du produit concurrent) ? Il est clair que la valeur d’un système d’information n’est pas la simple agrégation de la valeur de ses composants.
Il existe peu d’approches d’évaluation de la valeur de la donnée qui soient suffisamment holistiques et générales, permettant une application à tout type de donnée dans n’importe quel contexte. Des recommandations existent comme, par exemple, celle de choisir entre une approche descendante et une approche ascendante. Au contraire, l’approche holistique ne peut l’être qu’en combinant ces deux parcours de la valeur.
C’est parce que l’entreprise est encore incapable de mesurer la valeur réelle et potentielle des données qu’elle n’investit pas suffisamment dans la gouvernance des données et le partage des informations.
C’est un cercle vicieux puisque cela la rend finalement incapable de réaliser la pleine valeur. Le cercle vertueux peut se bâtir en commençant par les données les plus critiques, par exemple (mais pas nécessairement) la donnée client, et en embarquant progressivement tous les acteurs de la donnée, producteurs, « transformeurs », vendeurs, distributeurs, consommateurs de cette donnée. Ils ont les différents points de vue nécessaires à l’approche holistique.
____________
1J. Akoka, I. Comyn-Wattiau, « Evaluation de la valeur des données – Modèle et méthode », Actes du 40ème congrès INFORSID (INFormatique des ORganisations et Systèmes d’Information et de Décision), Dijon, 2022. 2D. Moody, P. Walsh, « Measuring the Value of Information – an Asset Valuation Approach », Actes de la conférence européenne sur les systèmes d’information (ECIS), 1999. 3A. Neely, « Why You Should Be Treating Your Data As An Asset », Anmut, https://www.anmut.co.uk/why-you-should-betreating-your-data-as-an-asset/
La double transition énergétique et digitale : Volontarisme pour l’investissement et clairvoyance pour le pilotage macroéconomique
L’économie mondiale est confrontée à de nombreux enjeux. Dans une perspective cour te, un tempo inusité des prix et une dégradation des perspectives de croissance, le tout dans un contexte politique compliqué sur le front intérieur dans de nombreux pays et inquiétant en matière de relations internationales (les comportements de la Russie en Ukraine, de la Chine autour de Taïwan et de l’Iran avec ses voisins arabes) ; dans une perspective longue, le vieillissement démographique concerne beaucoup de régions autour du globe, la « régulation » économique paraît s’éloigner du corpus néolibéral pour revenir vers une approche davantage keynésienne et une double transition, énergétique et digitale, est engagée.
Arrêtons-nous sur ce dernier point. La transition énergétique s’impose. Il y va de la préservation de la planète et de toutes les espèces qui y vivent. Il va falloir « décarboner » l’industrie et les transports, réussir la rénovation thermique des bâtiments et développer à grande échelle les énergies renouvelables. La transition digitale est aussi un impératif. Il s’agit d’un processus continu permettant aux entreprises, aux administrations et aux ménages d’intégrer les nouvelles technologies (par exemple le cloud, l’internet des objets ou l’intelligence artificielle) à beaucoup des aspects de leurs activités. En sachant que les transformations nécessaires ne répondent pas qu’à des problématiques technologiques. Il y a un aspect humain très important, avec des adaptations culturelles et comportementales à mener.
Les montant des investissements en jeu est impressionnant. En s’arrêtant à la seule Zone Euro, retenir une enveloppe annuelle de 500 milliards d’euros par an et ceci pendant de nombreuses années (sans doute plus de 10 ans) ne paraît pas déraisonnable. C’est du moins l’ordre de grandeur auquel on arrive en faisant la synthèse de quelques travaux « dignes de foi ». Cela représente plus de 4 points de PIB !
Les sommes engagées sont d’une telle taille qu’il ne semble pas inutile de s’interroger sur leurs implications macroéconomiques. Proposons un chiffrage prospectif simple à l’horizon 2032. Le point de départ est ce volontarisme en matière d’investissement, lié à la double transition : les « fameux » 500 milliards d’euros par an, qui, en passant d’une référence en monnaie courante à une autre en monnaie constante (celle retenue dans la mesure de la croissance économique – celle du PIB -), deviennent 440 milliards. Les autres éléments de la demande, y compris les dépenses d’investissements hors cette double transition, restent sur la tendance observée au cours des années passées. A un détail près toutefois ; le surcroît d’investissement se traduit par plus d’importations et donc par une réduction de l’excédent extérieur. Nous faisons aussi l’hypothèse qu’aucun choc de prix ou de politique économique n’intervient sur la période.
LE TABLEAU CI-DESSUS REPREND LES PRINCIPALES IMPLICATIONS À PRENDRE EN COMPTE. TROIS D’ENTRE ELLES SONT PARTICULIÈREMENT NOTABLES :
• La croissance du PIB atteindrait 1,5% l’an. Si le chiffrage n’apparaît pas a priori exagéré, il faut admettre que le potentiel de croissance est plutôt estimé à 1% l’an. Bien sûr, on peut considérer que l’effort supplémentaire d’investissement contribuera à plus de croissance. Mais à rebours on pourrait défendre l’idée que pour partie au moins cette accumulation nouvelle de capital se substituera à une destruction d’immobilisations devenues obsolètes.
Sans oublier les évolutions démographiques qui envoient un message plutôt défavorable pour ce qui est de la population active (effet à peut-être compenser par un retour à une situation proche du plein emploi).
Bref, une suspicion demeure :
le chiffrage induit par les hypothèses retenues n’est-il pas trop optimiste ?
• La part de la consommation des ménages dans le PIB reculerait de 2,5 points sur la période, pour atteindre 49,5%. Le niveau actuel n’est déjà pas très élevé : 52% contre une moyenne de 55% entre 1995 et 2010 (et un point haut à 59% en 1980), période qui a donc été suivie par une décrue progressive.
Avec le changement de « régulation » macroéconomique qu’on voit poindre et qui met l’accent sur une croissance plus inclusive, est-ce bien crédible ?
• Si le ratio investissement/PIB doit progresser de près de 4,5 points d’ici à 2032, alors l’épargne devra suivre ; les équilibres macroéconomiques sont ainsi faits ! D’où cela pourra-t-il venir ? En partie d’une moindre épargne européenne se dirigeant vers le reste du monde.
N’avons-nous pas retenu l’hypothèse d’une réduction de l’excédent extérieur ? Pour le reste, il faudra choisir entre un plus grand effort d’épargne des ménages, une augmentation des profits des entreprises et /ou une baisse du déficit des comptes publics.
AUCUNE DES OPTIONS NE VA DE SOI.
La première renvoie à la question de la réduction de la consommation des ménages dans le PIB ; on vient de le voir.
La seconde suggère une nouvelle déformation de la richesse créée en faveur des entreprises. N’est-ce pas contradictoire avec l’air du temps (nouvelle « régulation », dont le développement des critères ESG – Environnement, Social et Gouvernance -) ?
La troisième semble raisonnable, bien sûr ; mais comment choisir entre repli des dépenses courantes et hausse des prélèvements (l’investissement public serait très certainement « sanctuarisé ») ? Si ce scénario n’est pas celui de l’inacceptable, mais apparaît tout de même un peu « mal foutu », alors, il faut essayer de concevoir ce qui serait raisonnable d’anticiper sous les deux contraintes de réussir la double transition et de ne pas s’illusionner de trop sur les performances à venir en termes de croissance économique.
En fait, l’ajustement ne peut porter que, soit sur l’épargne placée dans le reste du monde (la contrepar tie de l’équilibre du compte des biens et services avec l’extérieur), avec la possibilité que les flux s’inversent et que la Zone Euro doive « importer » de l’épargne étrangère, soit sur un ralentissement des dépenses de consommation (qu’il s’agisse des ménages et/ou des administrations).
La première solution fragiliserait l’Europe sur la scène internationale.
Macroéconomiquement, elle apparaîtra moins solide, ce qui renforcera l’impression déjà tirée de la microéconomie (moindre rentabilité des entreprises du « vieux continent » par rapport à celles du « nouveau monde » et moindre présence dans les secteurs d’avenir) et de la politique (les problématiques non résolues de l’intégration et du rôle géopolitique).
Comment ne pas considérer alors que les équilibres financiers apparaitront plus incertains, qu’il s’agisse du niveau des taux d’intérêt ou du taux de change ?
La seconde idée, qui évidemment rime avec frugalité, semble difficile à mettre en place, dans un environnement à la fois plus keynésien et marqué du sceau de l’ambition d’un partage de la richesse plus en faveur des ménages. A moins que les pouvoirs publics trouvent la martingale pour inciter ceux-ci à épargner davantage.
On le comprend ; l’ambition de pousser les feux de l’investissement, pour des tas de bonnes raisons, a des effets macroéconomiques déstabilisants. Il faut anticiper et s’y préparer ; mieux vaut prévenir que guérir…
Infrastructure assets across North America are aging and in urgent need of better operation and maintenance (O&M) practices. The traditional challenges with O&M are accentuated by recent disruptions of the status quo, with emerging challenges including the higher degree of complexity, in addition to stricter policies regarding environmental and social performance. We provide our brief insight on each of those topics based on our experience and Project Advisory expertise.
Accuracy invites you to read the first Middle East edition of the Accuracy Talks Straight newsletter. You can find several interesting topics in this edition including the Football World Cup in Qatar, an analysis of the construction industry and the impact of inflation on this sector, how AI can help tackle the rising corporate fraud in the Gulf Cooperation Council (GCC), and an economic point of view on the Middle East.
Times are tumultuous and economic woes abound: high inflation, supply chain disruptions, low consumer confidence, foreign exchange issues and more. In spite of all this – or perhaps because of it – it is not so easy to make clear-cut conclusions. Indeed, for some economic indicators, current reality and short-/medium-term forecasts appear to be at odds with each other. So where does that leave us? In this edition of the Economic Brief, we will delve into the topic, with a particular focus on current inflationary trends and interest rates.
Accuracy, an international advisory firm that brings its expertise to business leaders and decision-makers, and Causality Link, a financial information technology provider, today announced they have signed a partnership agreement to enrich certain areas of Accuracy’s strategic advisory services with the information produced by Causality Link’s platform.
The Spanish banking sector continues to improve its results, and faces uncertainties regarding its resilience.
Macro scenario Overcoming the shock of Covid – at least from an economic perspective – the Euro area predicted a scenario of accelerated and prolonged growth. Improvements in the supply chain, substantial household savings and a good tourism season supported this thesis. However, the supply shock in key raw materials due to the Ukraine War has pushed the CPI up to levels not foreseen last year (10.8% in Spain in July). The projected baseline scenario suggests CPI rates above 4% in the Euro area until the end of 2023, a negative impact on household consumption, and on GDP, which will see less growth than had been expected in the coming quarters. […]
Dans la continuité de son Economic Brief, Accuracy a le plaisir de vous présenter Accuracy Eco Podcast. Retrouvez Hervé Goulletquer et David Chollet pour déchiffrer ensemble les dernières actualités économiques. En 10 minutes, comprenez mieux le monde qui vous entoure et ses enjeux économiques. Rendez-vous à la rentrée pour écouter notre tout premier épisode !
The recent legislative elections in France highlighted once again the discontent of the electorate in numerous countries with the development of their environment. Almost 60% of French voters listed on the electoral register made their choice… not to choose (non-voters, blank votes and spoilt votes) and almost 40% of those who did cast a ballot did so in favour of political organisations (parties or alliances) that are traditionally anti-establishment (the Rassemblement National and the Nouvelle Union Populaire, Ecologique et Sociale).
If we take a short-term focus, finding the reasons for this mix of pessimism and ill-humour—confirmed as it happens by a stark contraction of household confidence—proves to be quite simple. The net acceleration of consumer prices and the war at the European Union’s border, both phenomena being inherently linked, are obvious reasons. These upheavals, the gravity of which should not be underestimated (as we shall see), combine and indeed amplify a general disquiet that has been solidly in place for some time.
Without needlessly going too far back, we cannot fail to recognise that over the past 15 years the world has experienced an entire series of events that have contributed if not to a loss of our bearings, then to the questioning of the way we perceive the environment in which we are evolving.
Let us list some of these events, without looking to be exhaustive:
• the financial crisis (2008)
• the swing between the USA tending to retreat from global affairs and China, up to now, being more and more present (the new silk roads in 2015), with Europe in the middle trying to find itself (Brexit in 2016)
• the change in direction of US policy towards China (distrust and distance from 2017)
• Russia’s challenging of its neighbours’ borders (2008, 2014 and of course very recently in February this year)
• societies becoming more fragile (the Arab Spring in 2010–2011, the French Yellow Jackets in 2018, the assault on Congress in the USA in 2021, the Black Lives Matter movement in 2013, the refugee crisis in 2015, the Paris attacks in 2015)
• the rise of the environmental question (from the Fukushima accident in Japan in 2011 to a more complete realisation of climate change from 2018, with Greta Thunberg, among others)
• an economy that does not work for the benefit of all (the Panama Papers in 2016 on tax avoidance processes), against a contrasting backdrop of only passable, if not mediocre, performance at the macroeconomic scale but more dazzling performance at the microeconomic level (cf. GDP, and therefore revenues, vs the profits of listed companies)
• a pandemic crisis (COVID-19) highlighting the fragility of production chains that are too long and too complex (‘just in case’ taking over from ‘just in time’ but with what economic consequences?), not to mention the crisis linked to humanity’s abuse of Mother Nature
• the political and social question (the need to protect and share wealth)
It is on these already weakened foundations that the most recent events (inflation and the war, to put it simply) are being felt as potential vectors of rupture, similarly to potential catalysts of change that were until now latent. This rupture could take two forms.
First, and based on a deductive approach, there is the risk that geopolitical tectonic plates, to quote Pierre-Olivier Gourinchas, the new chief economist of the IMF, take shape, ‘fragmenting the global economy into distinct economic blocs with different ideologies, political systems, technology standards, cross border payment and trade systems, and reserve currencies’. The political landscape of the world would be drastically transformed, with the economic destabilisation that would result from it, at least in the beginning.
Then, and based on an empirical approach drawn from Applied History (the use of history to help benefit people in current and future times), there is the tempting parallel between the current situation and the situation that prevailed in the second half of the 1970s. At the time, the ingredients were episodes of war or regime change in the Middle East and a striking rise in oil prices. The consequence was twofold: the onset of spiralling inflation and a change of regulation, at the same time less interventionist and Keynesian and more liberal and ‘Friedmanian’: less systematic drive for budgetary activism, less regulation of the labour market, privatisation of public companies and more openness to external exchanges.
Let us delve into this second topic – or at least try. In the same way that correlation does not mean causation, parallel might mean trivial! By what path would comparable causes produce a change in the conduct of the economy, but in the opposite direction?
Is it not time to foresee a return to more voluntarist economic policies instead of prioritising laissez-faire economics? Yes, of course, but we must understand that this aspiration derives more from a reaction to a general context considered dysfunctional rather than from the search for an appropriate response to the beginning of snowballing prices.
Public opinion (or those who influence it) seems to show dissatisfaction, with the source of the problem behind it lying in the regulation in place today. This leads to an emphasis on an attitude that favours the alternative to the current logic: goodbye Friedman and hello Keynes, nice to see you again!
Nevertheless, beyond the causalities and their occasional loose ends to be tied up, the aspiration for a change in the administrat ion of the economy remains. The keywords might be the following: energy transition and inclusion. That means cooperation between countries (yes to competition in an open world, but not to strategic rivalry); reconciliation between public decision-makers, but also private ones, and the various other actors of economic and social life (the stakeholding); and the return to a ‘normal’ redistribution of wealth from the most to the least privileged.
To paraphrase Harvard University Professor Dani Rodrik, a globalised economic system cannot be the end and the political and social balances of each country the means; the logic must be put in the right order (a return in a way to the spirit of Bretton Woods).
In this way, at least we can hope, the global economic system will not fragment and inflation will be contained.
At least in the West, citizens and political leaders should align their aspirations and their efforts in this quest. Will businesses follow them? Will they not have something to lose, at least the largest of them?
We must of course raise the difficulty that may exist in reconciling the economic globalisation experienced over the past 30 years or so and the values that now prevail in society.
This requires adaptation, but without opposing the behaviour of the past and the aspirations—most certainly lasting—that have emerged. In the future (far ahead!), there will be no economic success in a world made inhospitable by the climate or by politics.
It is possible to ‘make some money’ occasionally by optimising customer, supplier and employee relationships, but taking a more long-term view, a ‘functional’ planet and ‘calm’ societ y are prerequisites.
Maybe we too easily tend to oppose market logic head-on to state and societal logic. Doubtless, it is more a question of positioning the cursor in the right place based on the changes observed or foreseen. That is where we are today; it is more about evolution than revolution!
Philippe Raimbourg Director of the Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Affiliate professor at ESCP Business School
The dynamics of corporate credit spreads
The analysis of credit spread dynamics largely relates to the analysis of financial ratings and their impact on the quoted prices of debt securities.
This issue has been documented regularly for over 50 years and has led to numerous statistical studies. For the most part, these studies are consistent and highlight the different reactions of investors to cases of downgrading and upgrading. Observing the quoted prices of debt securities highlights the financial market’s expectation for downgrading, with quoted prices trending significantly downwards several trading days before the downgrade itself. On the agency’s announcement date, the market’s reactions are small in scale. By contrast, upgrades are hardly ever anticipated, with debt security holders particularly vigilant so as not to incur capital losses as a result of a downgrade. It is worth noting that because of the limited maturity of the debt securities, buying orders are structurally higher than selling orders; as a result, the latter are more easily seen as signals of mistrust by the market.
More recent studies have focused on the impact of rating changes on the volatility and liquidity of securities. Downgrades are preceded by an increase in volatility and a wider bid-ask spread, demonstrating a fall in liquidity; uncertainty as to the credit risk of the security in question leads to different reactions from investors and disparate valuations. Publishing the rating effectively homogenises investor perceptions, reduces volatility and increases liquidity. The effects are not so clear-cut when upgrading because, with the change to the rating being unanticipated, the effect of perception homogenisation is weaker and counterbalanced by the desire of some investors to profit from the improved credit quality to make speculative gains.
These studies shed new light on the question of the utility of rating agencies. The agencies effectively send information to investors, but perhaps not to all of them. Indeed, informed investors may outpace the agencies in the monitoring of the issuers’ credit quality. However, less informed investors need the opinion of the agency to be certain that the observed decrease in prices effectively corresponds to a downgrade in credit quality. The agency’s announcement removes all disparity of perception between investors and highlights the utility of the agency, which stabilises prices and increases liquidity. The dynamics of credit spreads cannot be studied separately from those of other marketable securities. After all, the debt world is not cut off from the equity world, something that we can easily understand through intuition alone. A fall in share prices is generally the result of operational difficulties leading to a reduction in operating cash flows and lower coverage of remuneration expenses and debt repayments. In parallel, this lower share value means an increase in financial leverage and, at a given volatility of the rate of return on assets, an increase in the volatility of the rate of return on equity. A reduction in the share price, an increase in financial leverage and a rise in the share price volatility and credit risk therefore all combine. From a theoretical point of view, Robert Merton was the first to express the credit spread as a function of the share price. We will not cover his work here. We will instead look into the credit-equity relationship as it is frequently used in the finance industry. Indeed, typically a power function denominated on growth rates is used for this purpose.
CDSt / CDSREF = [ SREF / St ] α
The credit spread growth rate, measured by the CDS, is therefore a function of the rate of decline of the share price modulo a power α that we assume to be positive, where REF serves as a basis for calculating the rate of change of the CDS and the share.
Knowledge of the parameter α makes it possible to specify this relationship fully. We first note that, as defined by the preceding equation, α is the opposite of the elasticity of the CDS value compared with the share value. By taking the logarithm of this equation, we get:
Ln [CDSt / CDSREF] = – α Ln [ St / SREF ]
α = – Ln
[CDSt / CDSREF] / Ln [ St
/ SREF ]
A ratio of two relative growth rates, the α parameter is indeed, to the nearest sign, the elasticity of the CDS value compared with the share value that we can also write as:
α = – [S/CDS] [δCDS / δS]
By expressing the derivative of the CDS value in relation to the share value [δCDS / δS], we are led to the following value of the α parameter:
α = 1 + l avec l = D/(S+D)
The debt and equity worlds are therefore closely related: an inverse relationship links credit spreads and share prices; this relationship is heavily dependent on the financial structure of the company and its leverage calculated in relation to the balance sheet total (S+D). The higher this leverage, the more any potential underperformance in share price will lead to significant increases in the credit spread.
From an empirical perspective, though this correlation appears relatively low when the markets are calm, it is very high when the markets are volatile. When the leverage is low, the graph representing the development of credit spreads (in ordinates) in relation to share prices highlights a relatively linear relationship close to horizontal; however, when leverage is much higher, a highly convex line appears.
With this relationship established, we can now question the sense behind it, or, if we prefer, ask what the lead market is. To do so, it is necessary to undertake credit market and equity market co-integration tests, and that the arbitrageurs will be responsible for making the long-term equilibrium in these two markets consistent.
To this end, two series of econometric tests are conducted symmetrically. The first series aims to explain the changes in share prices by those in CDS, whether delayed or not by several periods, and vice versa as regards changes in the value of CDS, in the latter case incorporating changes in financial leverage. These relationships, tested over the period 2008–2020 for 220 listed securities on the S&P 500 index, bring to light the following results:
– There are information channels between the listed equity segment and the CDS market. These information channels concern all businesses, no matter their sector or their level of debt: ‘informed’ traders, because of the existence of financial leverage, make decisions just as much on the equity market as on the credit market.
– In the majority of cases (two thirds of companies reviewed), the lead market is the equity market whose developments determine around 70% of the developments in the CDS market.
– However, in the case of companies with significant leverage, the price discovery process starts with the CDS market, which explains more than 50% of price variations. This empirical work is evidence, if any were needed, of the importance of the structural credit risk model proposed by the Nobel laureate Robert Merton in 1974.
References
Lovo, S., Raimbourg Ph., Salvadè F. (2022), ‘Credit Rating Agencies, Information Asymmetry, and US Bond Liquidity’, Journal of Business, Finance and Accounting, https://doi. org/10.1111/jbfa.12610
Zimmermann, P. (2015), ‘Revisiting the Credit-Equity Power Relationship’, The Journal of Fixed Income, 24, 3, 77-87.
Zimmermann, P. (2021), ‘The Role of the Leverage Effect in the Price Discovery Process of Credit Markets’, Journal of Economic Dynamics and Control, 122, 104033.
To stop seeing everything through the prism of complexity: that is without doubt the most difficult thing that we must learn to do again. It is the most difficult because the paradigm of ‘complex thought’ (Edgar Morin1) has taken over. Our everyday semantics is evidence enough of this: all is ‘systemic’, ‘hybrid’, holistic’ or ‘fluid’. No matter where we look, the ‘VUCA’ world (for volatile, uncertain, complex and ambiguous2) stretches as far as the eye can see.
Yet, applied to every situation, this complexity dogma actually makes us lose understanding, potential for action and responsibility. First, we lose understanding because it forces on us a baroque representation of the world where everything is entangled, where the part is in the whole but the whole is also in the part3, and where the causes of an event are indeterminable and subject to the retroactive effects of their own consequences4. Referring the search for truth to a reductive and mutilating approach to reality, it also encourages the equivalence of opinions and accentuates the shortcomings of the post-truth era5.
Second, we lose potential for action because from the moment everything becomes complex, how can we not be consumed with panic and paralysis? Where should we start if, as soon as we touch just one thread of the fabric of reality, the whole spool risks becoming even more entangled? Our inaction in the face of climate change derives in part from this representation of the problem as something of endless complexity and from the idea that the slightest attempt to do something about it would raise other issues that are even worse. The fable of the butterfly’s wings in Brazil that generates a hurricane at the other end of the world leads to our inertia and impuissance. Yet ‘the secret to action is to get started’6, as the philosopher Alain put it.
‘It’s complicated’ therefore becomes an excuse not to act. Whilst the state of the world requires us to commit to action now more than ever, today we are seeing a great disengagement, visible in both the civic and corporate worlds. Referring to effects of the system, the complexity dogma takes away individual responsibility. Learning to think, act and live with simplicity appears more urgent than ever. But the path is not easy. As the minimalist architect John Pawson put it: ‘Simplicity is actually very difficult to achieve. It depends on care, thought, knowledge and patience.’7 Let us add ‘courage’ to this list of ingredients, the courage to question a triumphant representation of reality that may well be one of our great contemporary ideologies.
____________
1Published in 1990, the book Introduction à la pensée complexe [Introduction to complex thought] by Edgar Morin presents the main principles of complex thought.
2The acronym VUCA was created by the US army in the 1990s.
3Edgar Morin call this idea the ‘holographic principle’.
4This is what Morin calls the ‘recursive principle’.
5This is a possible interpretation of another principle of complex thought, the ‘dialogical principle’.
6Alain, translated from the French ‘Le secret de l’action, c’est de s’y mettre.’
7The book Minimum by John Pawson was first published in 2006.
Is real estate at the peak of its cycle? The Paris example.
What should we think of the stability in Parisian residential property prices, despite the public health crisis?
Since March 2020, the Covid-19 pandemic has shaken up the global economy, bringing about changes in numerous sectors, including residential property, in particular.
This public health crisis is behind a change in economic paradigms that have been in place since the 2010s. The eurozone is currently facing a significant increase in inflation, which reached 5.2% in May 2022, a level unseen since 1985. Access to mortgages for individuals is gradually becoming more difficult.
However, despite this context and in contrast to previous crises, the price per square metre of existing housing in Paris has not experienced any significant decrease; in fact, it has remained relatively stable.
In this situation, two opposing theories have come to light: one the one hand, some consider that the consistent rise of existing housing prices in Paris is justified by its unique nature, the City of Lights, which shelters it from economic cycles; on the other hand, some worry about a property bubble in the capital that is on the verge of bursting.
WHAT DO THE FIGURES SAY?
According to the Parisian notary database, the price per square metre of existing housing rose from €3,463 to €10,760 between 1991 and April 2022, an increase of around 3.6% per annum on average. Inflation over the same period stood at around 1.8% per annum on average, according to Insee. In short, the value of a square metre in Paris grew on average twice as quickly as inflation. In the graph below, we can observe the curve representing the actual increase in property prices per square metre in Paris versus a curve representing the 1991 price per square metre subsequently inflated each year using the Insee inflation rate.
This graph highlights two observable phases:
• In the period from 1991 to 2004, the actual price per square metre remained below the 1991 Insee-inflated price. Property prices grew significantly in the period prior to 1991 then underwent a major correction of around 35% between 1991 and 1997. Only in 2004 did the actual Parisian property price curve exceed the Insee-inflated curve.
As a reminder, 1991 marked a high point in the cycle, completing an upward phase of speculation by property dealers in Paris, and the beginning of what certain experts would call ‘the property crisis of the century’.
• In the period from 2004 to 2022, the actual price per square metre grew massively, much more quickly than economic inflation: +5.0% per annum on average for the actual price versus only +1.8% for inflation. There is therefore major disparity between the development of residential property prices in Paris and the average increase in standard of living.
Moreover, it is worth noting that between 2020 and 2022, the price per square metre in Paris did not experience any major fluctuation, in contrast to previous crises (1991 or 2008).
The first quarter of 2022, however, sees the return of significant inflation, with no repercussions on the actual property prices at this stage.
Is this due to increasing demand?
Many defend the following theory: demand for Paris is growing, whilst supply is limited, which has resulted in the constant rise in prices per square metre, no matter what stage of the economic cycle is prevailing.
The demographic reality is not quite so categorical. In 1990, Paris had a population of 2.15 million; this grew to 2.19 million in 2020, with a peak of 2.24 million in 2010. Further, since 2021, the city’s population has been falling to reach 2.14 million in 2022. Indeed, some Parisians, finding the health restrictions rather trying, decided to leave inner Paris for the inner and outer suburbs or other regions of France altogether.
The trend to leave inner Paris can also be seen among the households that returned from London following Brexit.
This declining trend comes hand in hand with an increase in demographic pressure in the rest of the Ile-de-France region (excluding Paris). The departments in the inner and outer suburbs have seen their population grow from 8.5 million to 10.3 million people between 1990 and 2022.
Therefore, since 1990, Paris has experienced a relatively stable demographic dynamic, even starting to decline from 2021. We can conclude then that demand does not seem to be behind the significant rise in the actual prices of residential property in Paris.
Is this due to decreasing supply?
In Paris, transaction volumes are higher during periods of increased prices (between 35,000 and 40,000 transactions per annum), whilst these volumes fall significantly during periods of decreased prices (25,000 to 30,000 transactions).
It seems high time to put an end to a common misconception: a fall in the volume of properties for sale does not automatically increase prices.
The economic reality is different: when prices are high, property owners are more inclined to sell their property, either to crystallise a capital gain or to undertake a buy–sell transaction (incidentally, often in the reverse order) because they have confidence in the market. Conversely, when prices are shrinking, the market seizes up. Property owners delay as much as possible their potential sales waiting for better days.
This leads to the following conclusion: the classic economic mechanisms of supply and demand simply cannot explain the historical growth in residential property prices per square metre in Paris.
These price dynamics should really be considered as ‘contra-economic’: supply grows in volume when prices increase; supply falls in volume when prices decrease.
When concentrating our analysis on the recent public health crisis, we can observe that transaction volumes decreased in the Parisian market. Indeed, the residential property market in Paris experienced a dip from the first lockdown, falling from 35,100 transactions per annum to 31,200 in 2020 to return to 34,900 in 2021. This change can be explained in particular by the specific structure of the lockdown, with investors unable to complete the purchasing process for residential property (visits, meeting with the notary, move, etc.).
When the strict public health measures were lifted, the property market was able to recover quickly.
WHAT ARE THE CONSEQUENCES OF THE COVID-19 CRISIS ON THE RESIDENTIAL PROPERTY MARKET IN PARIS?
For some investors, the change to our way of life due to the public health measures – remote working and leaving Paris – was to lead to a fall in Parisian property prices, or even to a bursting of the property bubble comparable to that of 1991.
Marked by the successive lockdowns and discouraged by the more difficult conditions to obtain a mortgage, people could have started a mass exodus from Paris, resulting in a fall in residential property prices in the city.
We can see in the graph below that the public health crisis appears to have had little impact on the price per square metre in Paris. Prices have flattened, or slightly decreased, but have not fallen below the bar of €10,000 per square metre on average.
WHAT ARE THE REAL DRIVERS EXPLAINING THE INCREASE IN RESIDENTIAL PROPERTY PRICES PER SQUARE METRE IN PARIS?
As we cannot use demography and standard economics to explain the long-term increase in prices observed, what are the variables that really can explain this sharp increase?
To answer this question, we have built a multi-variable regression model using a long historical series (1990–2022), which comes to the following conclusion:
Since 1990, the development of residential property prices per square metre in Paris can be explained ‘entirely’ and ‘mathematically’ by two financial variables.
To put it simply, this means that it is possible to explain—and potentially predict—the price per square metre of residential property in Paris with an extremely high degree of accuracy using only two financial variables.
– For those familiar with such techniques, our multi-variable regression model reached a correlation index (R2 ) level of 94%1.
The first variable involved is the following:
– Variable 1: the spread between the French 10-year OAT rate and Insee’s inflation rate.
As shown in the graph below, taken in isolation, this variable
In simple terms, this variable represents a borrower’s interest rate adjusted for economic inflation, that is, the net real interest rate for the borrower.
This variable thus makes it possible to take into account the attractiveness of the resources available to the borrower to acquire a residential property.
The spread highlights the impact of French 10-year OAT rates in the development of property prices per square metre. Indeed, when the French 10-year OAT rates fall, the borrowing capacity of an individual borrower rises significantly. For example, if an individual borrower’s rate decreases by one point (100 basis points), his or her borrowing capacity increases by approximately 10%. But the Parisian property market incorporates this component in the development of prices per square metre. The fall in rates enables a rise in borrowing capacity for buyers but not in terms of the number of square metres that they can buy. The market absorbs any increase in borrowing capacity in the price per square metre.
Furthermore, this variable takes into account the effect of inflation on the property market. The year 2017 marks the beginning of a scissor effect between the French 10-year OAT rate and inflation. Interest rates remained stable whilst inflation picked up significantly. For the first time, the spread (10-year OAT – inflation) became negative, meaning that for the first time, individual borrowers could borrow at negative net real rates.
The scissor effect has intensified since 2018, bringing about the continued rise in residential property prices per square metre in Paris between 2018 and 2020.
But since 2021, the striking rise in inflation coupled with the stable low base rates have been behind a financially untenable spread. This spread has developed from (0.6)% in 2020 to (3.6)% in 2022. Over the same period, prices per square metre have started to decline just as the rise in the cost of living has accelerated.
The current intention of the European Central Bank (ECB) to increase base rates in order to curb inflation should gradually attenuate this historic scissor effect. But prices per square metre of residential property in Paris appear to have begun a noteworthy decline.
The fall in spread is not the only or even the best driver explaining the historical increase in prices per square metre in Paris.
The second historical variable is the following:
– Variable 2: the size of the ECB’s balance sheet.
– Taken in isolation, this variable explains the price per square metre with an R2 of approximately 94%. It itself is highly correlated with the first variable, owing to the coordination of decisions on the development of the ECB’s monetary policy for these two variables.
This variable highlights the consequences of the quantitative easing policy implemented by the ECB on the valuation of financial asset classes, including Parisian property.
To enable the members of the Eurogroup to face various economic crises (including the public health crisis), the ECB put in place in 2009 an ambitious quantitative easing policy, similarly to the Fed, with the aim of ensuring the stability of the euro by injecting a vast quantity of currency into the market.
The supply of this monetary mass to banks and the maintenance of low base rates are behind the historical rise of residential property prices in Paris.
Based on our analyses, it is possible to correlate the historical development of prices per square metre in Paris with the size of the ECB’s balance sheet at 94%.
The graph below presents the development of the ECB’s balance sheet, showing its consistent growth since 2009. This strong growth is the fruit of the implementation of unconventional monetary policies to respond to the crises felt by the Euro-system in 2009, 2011 and 2020. By massively acquiring public and private debt on the European market to serve the refinancing demands of banks, the ECB has created favourable financing conditions in the eurozone in a context of crisis and very low interest rates.
Since 2009, the ECB has implemented two ambitious net asset purchase programmes: the Asset Purchase Programme (APP) and the Pandemic Emergency Purchase Programme (PEPP). These programmes are behind an unprecedented increase in the size of the ECB’s balance sheet.
However, though we can observe another doubling of the ECB’s balance sheet between 2020 and 2022, the price per square metre of property in Paris has slightly fallen, compared with a considerable increase over the period from 2011 to 2021.
This is a major break in the trend.
CONCLUSION
Over the long-term historical period, we have observed that the development of prices per square metre in Paris is highly correlated with the monetary policy of the European regulator, in particular via two variables: the spread (10-year OAT – inflation) and the size of the ECB’s balance sheet.
Between 1999 and 2020, a mathematical formula makes it possible to predict with a high degree of relevance the development of prices per square metre in Paris. In short, it suffices to listen to the European Central Bank and to anticipate and model its decisions.
But the years 2021 and 2022 have been marked by a drastic change in macroeconomic indicators.
Inflation has returned to levels not experienced since the 1970s (5.2% in May 2022), which disrupts the spread rate.
Similarly, the ECB’s decision to put in place a massive debt purchasing plan in the context of the public health crisis led to the doubling of its monetary balance sheet, with no particular effect on the price per square metre in Paris.
The two variables that were the drivers of the rise in prices since 1999 can no longer explain the development of the price per square metre of residential property in Paris from 2020 onwards.
The model is broken.
This likely marks the beginning of a wait-andsee period that could lead to a fall in both volumes and prices per square metre (versus inflation).
What remains to be seen is how long the property investor of 2020 will have to endure this market correction and whether Parisian property will play its role of a safe haven investment as it did during the inflationist period of 1970.
Rnest is a piece of software that helps to resolve problems using internet data. Philippe Charlot, its founder, started with a simple fact: 90% of information useful for deci s ion-making i s avai l able on the internet. Yet finding the right information is particularly complicated: sources are innumerable, traditional searches refer to only a limited number of results and the time necessary to read, understand and summarise the web pages presents a significant obstacle. When faced with an issue, a user will typically ask a question on a major search engine (Google, Bing, Quant or Yahoo to name only the largest of them) or, for the more enlightened, on monitoring software (Quid, Palantir, Digimind or Amplyfi). These search engines and pieces of software search for keywords in web pages, on predefined sources and for almost zero productivity.
However, thanks to Rnest, the user can make a request for which the software will undertake a precise exploration of the internet in a URL, in hypertext or even in nearby text and will proceed to validate the pages visited precisely at phrase level (not just page level). This gives a result that is much more precise and relevant. Rnest is capable of exploring almost 250,000 web pages in a few hours. The software is also capable of proposing a problematised summary note in response to the initial request.
‘Find out what nobody knows yet, just with what you know’, Rnest promises. After formulating his or her question, no matter how complicated, the user initiates the search, and Rnest explores the web in real time to extract the most relevant content.
This artificial intelligence, made in France, navigates the web fully independently, is inspired by human behaviour and fulfils extremely varied needs across all sectors of activity. For example, based on the question ‘what are the innovation strategies of the top 200 French companies?’, Rnest will visit one million web pages, effectively saving the equivalent of 833 days of reading.
Among its first clients are BNP Paribas, Bouygues Télécom, Total, EDF and now Accuracy. Indeed, Accuracy will benefit from Rnest’s power in Open Source to enrich its advisory services to its clients.
For this editorial in summer 2022, I would have liked nothing more than to wish you a lovely, light, magical summer.
Unfortunately, war has taken hold at Europe’s door, prices are exploding and the planet is suffocating.
My pen must be wiser.
Summer is a time to step back and reflect; let us take advantage of it to relearn…
– to relearn simplicity to find the taste for simple and efficient action again. The complexity dogma paralyses us; let us unburden ourselves of it! (The Cultural Corner with Sophie Chassat)
– to relearn to live together around the concept of the common good and aim for reasonable economic development in the long term. (Economic point of view with Hervé Goulletquer)
– to relearn to invest for the long term with limited resources, whether:
In technologies of the future:
• In Start-up Stories with Romain Proglio, you will discover Rnest, software that helps to resolve problems using the Web – how to dive into the depth and complexity of the Web to surface again with simple and understandable answers!
Via major corporate groups:
• In a context of the sudden rise in interest rates and tightening macroeconomic conditions, we must relearn the link between financing conditions and the financial structure of a group. The equity and debt markets are closely linked and their developments are interdependent, meaning that managers must carefully assess the cross-impacts of changes in their funding. (The Academic Insight with Philippe Raimbourg).
In real estate: • Real estate is an asset class considered highly safe and predictable, particularly in population and activity pools as rich and dense as Greater Paris. But to what extent is this still true post-2020 after the unfolding of the public health crisis and the wave of capital injected into the economy at negative real interest rates? (Industry Insight with Justine Schmit and Nicolas Paillot de Montabert).
This summer, let us take inspiration from Erasmus and his humane wisdom.
‘It is the greatest of folly to wish to be wise in a world of madmen.’
‘The whole world is home to us all.’
So, let us be wise; let us be mad; but let us be respectful of one another and to the generations to come!
For our fifth edition of the Accuracy Talks Straight, Jean-François Partiot presents the editorial, before letting Romain Proglio introduce us to Rnest, a piece of software that helps to resolve problems using internet data. We then analyse the residential property prices in Paris with Nicolas Paillot de Montabert and Justine Schmit. Sophie Chassat, Philosopher and partner at Wemean, explores how to learn simplicity. And finally, we look closer at the dynamics of corporate credit spreads with Philippe Raimbourg, Director of the Ecole de Management de la Sorbonne and Affiliate professor at ESCP Business School, as well as the liberal revolution with Hervé Goulletquer, our senior economic adviser.
For this editorial in summer 2022, I would have liked nothing more than to wish you a lovely, light, magical summer.
Unfortunately, war has taken hold at Europe’s door, prices are exploding and the planet is suffocating.
My pen must be wiser.
Summer is a time to step back and reflect; let us take advantage of it to relearn…
– to relearn simplicity to find the taste for simple and efficient action again. The complexity dogma paralyses us; let us unburden ourselves of it! (The Cultural Corner with Sophie Chassat)
– to relearn to live together around the concept of the common good and aim for reasonable economic development in the long term. (Economic point of view with Hervé Goulletquer)
– to relearn to invest for the long term with limited resources, whether:
In technologies of the future:
• In Start-up Stories with Romain Proglio, you will discover Rnest, software that helps to resolve problems using the Web – how to dive into the depth and complexity of the Web to surface again with simple and understandable answers!
Via major corporate groups:
• In a context of the sudden rise in interest rates and tightening macroeconomic conditions, we must relearn the link between financing conditions and the financial structure of a group. The equity and debt markets are closely linked and their developments are interdependent, meaning that managers must carefully assess the cross-impacts of changes in their funding. (The Academic Insight with Philippe Raimbourg).
In real estate: • Real estate is an asset class considered highly safe and predictable, particularly in population and activity pools as rich and dense as Greater Paris. But to what extent is this still true post-2020 after the unfolding of the public health crisis and the wave of capital injected into the economy at negative real interest rates? (Industry Insight with Justine Schmit and Nicolas Paillot de Montabert).
This summer, let us take inspiration from Erasmus and his humane wisdom.
‘It is the greatest of folly to wish to be wise in a world of madmen.’
‘The whole world is home to us all.’
So, let us be wise; let us be mad; but let us be respectful of one another and to the generations to come!
Rnest is a piece of software that helps to resolve problems using internet data. Philippe Charlot, its founder, started with a simple fact: 90% of information useful for deci s ion-making i s avai l able on the internet. Yet finding the right information is particularly complicated: sources are innumerable, traditional searches refer to only a limited number of results and the time necessary to read, understand and summarise the web pages presents a significant obstacle. When faced with an issue, a user will typically ask a question on a major search engine (Google, Bing, Quant or Yahoo to name only the largest of them) or, for the more enlightened, on monitoring software (Quid, Palantir, Digimind or Amplyfi). These search engines and pieces of software search for keywords in web pages, on predefined sources and for almost zero productivity.
However, thanks to Rnest, the user can make a request for which the software will undertake a precise exploration of the internet in a URL, in hypertext or even in nearby text and will proceed to validate the pages visited precisely at phrase level (not just page level). This gives a result that is much more precise and relevant. Rnest is capable of exploring almost 250,000 web pages in a few hours. The software is also capable of proposing a problematised summary note in response to the initial request.
‘Find out what nobody knows yet, just with what you know’, Rnest promises. After formulating his or her question, no matter how complicated, the user initiates the search, and Rnest explores the web in real time to extract the most relevant content.
This artificial intelligence, made in France, navigates the web fully independently, is inspired by human behaviour and fulfils extremely varied needs across all sectors of activity. For example, based on the question ‘what are the innovation strategies of the top 200 French companies?’, Rnest will visit one million web pages, effectively saving the equivalent of 833 days of reading.
Among its first clients are BNP Paribas, Bouygues Télécom, Total, EDF and now Accuracy. Indeed, Accuracy will benefit from Rnest’s power in Open Source to enrich its advisory services to its clients.
Is real estate at the peak of its cycle? The Paris example.
What should we think of the stability in Parisian residential property prices, despite the public health crisis?
Since March 2020, the Covid-19 pandemic has shaken up the global economy, bringing about changes in numerous sectors, including residential property, in particular.
This public health crisis is behind a change in economic paradigms that have been in place since the 2010s. The eurozone is currently facing a significant increase in inflation, which reached 5.2% in May 2022, a level unseen since 1985. Access to mortgages for individuals is gradually becoming more difficult.
However, despite this context and in contrast to previous crises, the price per square metre of existing housing in Paris has not experienced any significant decrease; in fact, it has remained relatively stable.
In this situation, two opposing theories have come to light: one the one hand, some consider that the consistent rise of existing housing prices in Paris is justified by its unique nature, the City of Lights, which shelters it from economic cycles; on the other hand, some worry about a property bubble in the capital that is on the verge of bursting.
WHAT DO THE FIGURES SAY?
According to the Parisian notary database, the price per square metre of existing housing rose from €3,463 to €10,760 between 1991 and April 2022, an increase of around 3.6% per annum on average. Inflation over the same period stood at around 1.8% per annum on average, according to Insee. In short, the value of a square metre in Paris grew on average twice as quickly as inflation. In the graph below, we can observe the curve representing the actual increase in property prices per square metre in Paris versus a curve representing the 1991 price per square metre subsequently inflated each year using the Insee inflation rate.
This graph highlights two observable phases:
• In the period from 1991 to 2004, the actual price per square metre remained below the 1991 Insee-inflated price. Property prices grew significantly in the period prior to 1991 then underwent a major correction of around 35% between 1991 and 1997. Only in 2004 did the actual Parisian property price curve exceed the Insee-inflated curve.
As a reminder, 1991 marked a high point in the cycle, completing an upward phase of speculation by property dealers in Paris, and the beginning of what certain experts would call ‘the property crisis of the century’.
• In the period from 2004 to 2022, the actual price per square metre grew massively, much more quickly than economic inflation: +5.0% per annum on average for the actual price versus only +1.8% for inflation. There is therefore major disparity between the development of residential property prices in Paris and the average increase in standard of living.
Moreover, it is worth noting that between 2020 and 2022, the price per square metre in Paris did not experience any major fluctuation, in contrast to previous crises (1991 or 2008).
The first quarter of 2022, however, sees the return of significant inflation, with no repercussions on the actual property prices at this stage.
Is this due to increasing demand?
Many defend the following theory: demand for Paris is growing, whilst supply is limited, which has resulted in the constant rise in prices per square metre, no matter what stage of the economic cycle is prevailing.
The demographic reality is not quite so categorical. In 1990, Paris had a population of 2.15 million; this grew to 2.19 million in 2020, with a peak of 2.24 million in 2010. Further, since 2021, the city’s population has been falling to reach 2.14 million in 2022. Indeed, some Parisians, finding the health restrictions rather trying, decided to leave inner Paris for the inner and outer suburbs or other regions of France altogether.
The trend to leave inner Paris can also be seen among the households that returned from London following Brexit.
This declining trend comes hand in hand with an increase in demographic pressure in the rest of the Ile-de-France region (excluding Paris). The departments in the inner and outer suburbs have seen their population grow from 8.5 million to 10.3 million people between 1990 and 2022.
Therefore, since 1990, Paris has experienced a relatively stable demographic dynamic, even starting to decline from 2021. We can conclude then that demand does not seem to be behind the significant rise in the actual prices of residential property in Paris.
Is this due to decreasing supply?
In Paris, transaction volumes are higher during periods of increased prices (between 35,000 and 40,000 transactions per annum), whilst these volumes fall significantly during periods of decreased prices (25,000 to 30,000 transactions).
It seems high time to put an end to a common misconception: a fall in the volume of properties for sale does not automatically increase prices.
The economic reality is different: when prices are high, property owners are more inclined to sell their property, either to crystallise a capital gain or to undertake a buy–sell transaction (incidentally, often in the reverse order) because they have confidence in the market. Conversely, when prices are shrinking, the market seizes up. Property owners delay as much as possible their potential sales waiting for better days.
This leads to the following conclusion: the classic economic mechanisms of supply and demand simply cannot explain the historical growth in residential property prices per square metre in Paris.
These price dynamics should really be considered as ‘contra-economic’: supply grows in volume when prices increase; supply falls in volume when prices decrease.
When concentrating our analysis on the recent public health crisis, we can observe that transaction volumes decreased in the Parisian market. Indeed, the residential property market in Paris experienced a dip from the first lockdown, falling from 35,100 transactions per annum to 31,200 in 2020 to return to 34,900 in 2021. This change can be explained in particular by the specific structure of the lockdown, with investors unable to complete the purchasing process for residential property (visits, meeting with the notary, move, etc.).
When the strict public health measures were lifted, the property market was able to recover quickly.
WHAT ARE THE CONSEQUENCES OF THE COVID-19 CRISIS ON THE RESIDENTIAL PROPERTY MARKET IN PARIS?
For some investors, the change to our way of life due to the public health measures – remote working and leaving Paris – was to lead to a fall in Parisian property prices, or even to a bursting of the property bubble comparable to that of 1991.
Marked by the successive lockdowns and discouraged by the more difficult conditions to obtain a mortgage, people could have started a mass exodus from Paris, resulting in a fall in residential property prices in the city.
We can see in the graph below that the public health crisis appears to have had little impact on the price per square metre in Paris. Prices have flattened, or slightly decreased, but have not fallen below the bar of €10,000 per square metre on average.
WHAT ARE THE REAL DRIVERS EXPLAINING THE INCREASE IN RESIDENTIAL PROPERTY PRICES PER SQUARE METRE IN PARIS?
As we cannot use demography and standard economics to explain the long-term increase in prices observed, what are the variables that really can explain this sharp increase?
To answer this question, we have built a multi-variable regression model using a long historical series (1990–2022), which comes to the following conclusion:
Since 1990, the development of residential property prices per square metre in Paris can be explained ‘entirely’ and ‘mathematically’ by two financial variables.
To put it simply, this means that it is possible to explain—and potentially predict—the price per square metre of residential property in Paris with an extremely high degree of accuracy using only two financial variables.
– For those familiar with such techniques, our multi-variable regression model reached a correlation index (R2 ) level of 94%1.
The first variable involved is the following:
– Variable 1: the spread between the French 10-year OAT rate and Insee’s inflation rate.
As shown in the graph below, taken in isolation, this variable
In simple terms, this variable represents a borrower’s interest rate adjusted for economic inflation, that is, the net real interest rate for the borrower.
This variable thus makes it possible to take into account the attractiveness of the resources available to the borrower to acquire a residential property.
The spread highlights the impact of French 10-year OAT rates in the development of property prices per square metre. Indeed, when the French 10-year OAT rates fall, the borrowing capacity of an individual borrower rises significantly. For example, if an individual borrower’s rate decreases by one point (100 basis points), his or her borrowing capacity increases by approximately 10%. But the Parisian property market incorporates this component in the development of prices per square metre. The fall in rates enables a rise in borrowing capacity for buyers but not in terms of the number of square metres that they can buy. The market absorbs any increase in borrowing capacity in the price per square metre.
Furthermore, this variable takes into account the effect of inflation on the property market. The year 2017 marks the beginning of a scissor effect between the French 10-year OAT rate and inflation. Interest rates remained stable whilst inflation picked up significantly. For the first time, the spread (10-year OAT – inflation) became negative, meaning that for the first time, individual borrowers could borrow at negative net real rates.
The scissor effect has intensified since 2018, bringing about the continued rise in residential property prices per square metre in Paris between 2018 and 2020.
But since 2021, the striking rise in inflation coupled with the stable low base rates have been behind a financially untenable spread. This spread has developed from (0.6)% in 2020 to (3.6)% in 2022. Over the same period, prices per square metre have started to decline just as the rise in the cost of living has accelerated.
The current intention of the European Central Bank (ECB) to increase base rates in order to curb inflation should gradually attenuate this historic scissor effect. But prices per square metre of residential property in Paris appear to have begun a noteworthy decline.
The fall in spread is not the only or even the best driver explaining the historical increase in prices per square metre in Paris.
The second historical variable is the following:
– Variable 2: the size of the ECB’s balance sheet.
– Taken in isolation, this variable explains the price per square metre with an R2 of approximately 94%. It itself is highly correlated with the first variable, owing to the coordination of decisions on the development of the ECB’s monetary policy for these two variables.
This variable highlights the consequences of the quantitative easing policy implemented by the ECB on the valuation of financial asset classes, including Parisian property.
To enable the members of the Eurogroup to face various economic crises (including the public health crisis), the ECB put in place in 2009 an ambitious quantitative easing policy, similarly to the Fed, with the aim of ensuring the stability of the euro by injecting a vast quantity of currency into the market.
The supply of this monetary mass to banks and the maintenance of low base rates are behind the historical rise of residential property prices in Paris.
Based on our analyses, it is possible to correlate the historical development of prices per square metre in Paris with the size of the ECB’s balance sheet at 94%.
The graph below presents the development of the ECB’s balance sheet, showing its consistent growth since 2009. This strong growth is the fruit of the implementation of unconventional monetary policies to respond to the crises felt by the Euro-system in 2009, 2011 and 2020. By massively acquiring public and private debt on the European market to serve the refinancing demands of banks, the ECB has created favourable financing conditions in the eurozone in a context of crisis and very low interest rates.
Since 2009, the ECB has implemented two ambitious net asset purchase programmes: the Asset Purchase Programme (APP) and the Pandemic Emergency Purchase Programme (PEPP). These programmes are behind an unprecedented increase in the size of the ECB’s balance sheet.
However, though we can observe another doubling of the ECB’s balance sheet between 2020 and 2022, the price per square metre of property in Paris has slightly fallen, compared with a considerable increase over the period from 2011 to 2021.
This is a major break in the trend.
CONCLUSION
Over the long-term historical period, we have observed that the development of prices per square metre in Paris is highly correlated with the monetary policy of the European regulator, in particular via two variables: the spread (10-year OAT – inflation) and the size of the ECB’s balance sheet.
Between 1999 and 2020, a mathematical formula makes it possible to predict with a high degree of relevance the development of prices per square metre in Paris. In short, it suffices to listen to the European Central Bank and to anticipate and model its decisions.
But the years 2021 and 2022 have been marked by a drastic change in macroeconomic indicators.
Inflation has returned to levels not experienced since the 1970s (5.2% in May 2022), which disrupts the spread rate.
Similarly, the ECB’s decision to put in place a massive debt purchasing plan in the context of the public health crisis led to the doubling of its monetary balance sheet, with no particular effect on the price per square metre in Paris.
The two variables that were the drivers of the rise in prices since 1999 can no longer explain the development of the price per square metre of residential property in Paris from 2020 onwards.
The model is broken.
This likely marks the beginning of a wait-andsee period that could lead to a fall in both volumes and prices per square metre (versus inflation).
What remains to be seen is how long the property investor of 2020 will have to endure this market correction and whether Parisian property will play its role of a safe haven investment as it did during the inflationist period of 1970.
Sophie Chassat Philosopher, Partner at Wemean
Learning simplicity again
To stop seeing everything through the prism of complexity: that is without doubt the most difficult thing that we must learn to do again. It is the most difficult because the paradigm of ‘complex thought’ (Edgar Morin1) has taken over. Our everyday semantics is evidence enough of this: all is ‘systemic’, ‘hybrid’, holistic’ or ‘fluid’. No matter where we look, the ‘VUCA’ world (for volatile, uncertain, complex and ambiguous2) stretches as far as the eye can see.
Yet, applied to every situation, this complexity dogma actually makes us lose understanding, potential for action and responsibility. First, we lose understanding because it forces on us a baroque representation of the world where everything is entangled, where the part is in the whole but the whole is also in the part3, and where the causes of an event are indeterminable and subject to the retroactive effects of their own consequences4. Referring the search for truth to a reductive and mutilating approach to reality, it also encourages the equivalence of opinions and accentuates the shortcomings of the post-truth era5.
Second, we lose potential for action because from the moment everything becomes complex, how can we not be consumed with panic and paralysis? Where should we start if, as soon as we touch just one thread of the fabric of reality, the whole spool risks becoming even more entangled? Our inaction in the face of climate change derives in part from this representation of the problem as something of endless complexity and from the idea that the slightest attempt to do something about it would raise other issues that are even worse. The fable of the butterfly’s wings in Brazil that generates a hurricane at the other end of the world leads to our inertia and impuissance. Yet ‘the secret to action is to get started’6, as the philosopher Alain put it.
‘It’s complicated’ therefore becomes an excuse not to act. Whilst the state of the world requires us to commit to action now more than ever, today we are seeing a great disengagement, visible in both the civic and corporate worlds. Referring to effects of the system, the complexity dogma takes away individual responsibility. Learning to think, act and live with simplicity appears more urgent than ever. But the path is not easy. As the minimalist architect John Pawson put it: ‘Simplicity is actually very difficult to achieve. It depends on care, thought, knowledge and patience.’7 Let us add ‘courage’ to this list of ingredients, the courage to question a triumphant representation of reality that may well be one of our great contemporary ideologies.
____________
1Published in 1990, the book Introduction à la pensée complexe [Introduction to complex thought] by Edgar Morin presents the main principles of complex thought.
2The acronym VUCA was created by the US army in the 1990s.
3Edgar Morin call this idea the ‘holographic principle’.
4This is what Morin calls the ‘recursive principle’.
5This is a possible interpretation of another principle of complex thought, the ‘dialogical principle’.
6Alain, translated from the French ‘Le secret de l’action, c’est de s’y mettre.’
7The book Minimum by John Pawson was first published in 2006.
Philippe Raimbourg Director of the Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Affiliate professor at ESCP Business School
La dynamique des spreads de credit corporate
The analysis of credit spread dynamics largely relates to the analysis of financial ratings and their impact on the quoted prices of debt securities.
This issue has been documented regularly for over 50 years and has led to numerous statistical studies. For the most part, these studies are consistent and highlight the different reactions of investors to cases of downgrading and upgrading. Observing the quoted prices of debt securities highlights the financial market’s expectation for downgrading, with quoted prices trending significantly downwards several trading days before the downgrade itself. On the agency’s announcement date, the market’s reactions are small in scale. By contrast, upgrades are hardly ever anticipated, with debt security holders particularly vigilant so as not to incur capital losses as a result of a downgrade. It is worth noting that because of the limited maturity of the debt securities, buying orders are structurally higher than selling orders; as a result, the latter are more easily seen as signals of mistrust by the market.
More recent studies have focused on the impact of rating changes on the volatility and liquidity of securities. Downgrades are preceded by an increase in volatility and a wider bid-ask spread, demonstrating a fall in liquidity; uncertainty as to the credit risk of the security in question leads to different reactions from investors and disparate valuations. Publishing the rating effectively homogenises investor perceptions, reduces volatility and increases liquidity. The effects are not so clear-cut when upgrading because, with the change to the rating being unanticipated, the effect of perception homogenisation is weaker and counterbalanced by the desire of some investors to profit from the improved credit quality to make speculative gains.
These studies shed new light on the question of the utility of rating agencies. The agencies effectively send information to investors, but perhaps not to all of them. Indeed, informed investors may outpace the agencies in the monitoring of the issuers’ credit quality. However, less informed investors need the opinion of the agency to be certain that the observed decrease in prices effectively corresponds to a downgrade in credit quality. The agency’s announcement removes all disparity of perception between investors and highlights the utility of the agency, which stabilises prices and increases liquidity. The dynamics of credit spreads cannot be studied separately from those of other marketable securities. After all, the debt world is not cut off from the equity world, something that we can easily understand through intuition alone. A fall in share prices is generally the result of operational difficulties leading to a reduction in operating cash flows and lower coverage of remuneration expenses and debt repayments. In parallel, this lower share value means an increase in financial leverage and, at a given volatility of the rate of return on assets, an increase in the volatility of the rate of return on equity. A reduction in the share price, an increase in financial leverage and a rise in the share price volatility and credit risk therefore all combine. From a theoretical point of view, Robert Merton was the first to express the credit spread as a function of the share price. We will not cover his work here. We will instead look into the credit-equity relationship as it is frequently used in the finance industry. Indeed, typically a power function denominated on growth rates is used for this purpose.
CDSt / CDSREF = [ SREF / St ] α
The credit spread growth rate, measured by the CDS, is therefore a function of the rate of decline of the share price modulo a power α that we assume to be positive, where REF serves as a basis for calculating the rate of change of the CDS and the share.
Knowledge of the parameter α makes it possible to specify this relationship fully. We first note that, as defined by the preceding equation, α is the opposite of the elasticity of the CDS value compared with the share value. By taking the logarithm of this equation, we get:
Ln [CDSt / CDSREF] = – α Ln [ St / SREF ]
α = – Ln
[CDSt / CDSREF] / Ln [ St
/ SREF ]
A ratio of two relative growth rates, the α parameter is indeed, to the nearest sign, the elasticity of the CDS value compared with the share value that we can also write as:
α = – [S/CDS] [δCDS / δS]
By expressing the derivative of the CDS value in relation to the share value [δCDS / δS], we are led to the following value of the α parameter:
α = 1 + l avec l = D/(S+D)
The debt and equity worlds are therefore closely related: an inverse relationship links credit spreads and share prices; this relationship is heavily dependent on the financial structure of the company and its leverage calculated in relation to the balance sheet total (S+D). The higher this leverage, the more any potential underperformance in share price will lead to significant increases in the credit spread.
From an empirical perspective, though this correlation appears relatively low when the markets are calm, it is very high when the markets are volatile. When the leverage is low, the graph representing the development of credit spreads (in ordinates) in relation to share prices highlights a relatively linear relationship close to horizontal; however, when leverage is much higher, a highly convex line appears.
With this relationship established, we can now question the sense behind it, or, if we prefer, ask what the lead market is. To do so, it is necessary to undertake credit market and equity market co-integration tests, and that the arbitrageurs will be responsible for making the long-term equilibrium in these two markets consistent.
To this end, two series of econometric tests are conducted symmetrically. The first series aims to explain the changes in share prices by those in CDS, whether delayed or not by several periods, and vice versa as regards changes in the value of CDS, in the latter case incorporating changes in financial leverage. These relationships, tested over the period 2008–2020 for 220 listed securities on the S&P 500 index, bring to light the following results:
– There are information channels between the listed equity segment and the CDS market. These information channels concern all businesses, no matter their sector or their level of debt: ‘informed’ traders, because of the existence of financial leverage, make decisions just as much on the equity market as on the credit market.
– In the majority of cases (two thirds of companies reviewed), the lead market is the equity market whose developments determine around 70% of the developments in the CDS market.
– However, in the case of companies with significant leverage, the price discovery process starts with the CDS market, which explains more than 50% of price variations. This empirical work is evidence, if any were needed, of the importance of the structural credit risk model proposed by the Nobel laureate Robert Merton in 1974.
References
Lovo, S., Raimbourg Ph., Salvadè F. (2022), ‘Credit Rating Agencies, Information Asymmetry, and US Bond Liquidity’, Journal of Business, Finance and Accounting, https://doi. org/10.1111/jbfa.12610
Zimmermann, P. (2015), ‘Revisiting the Credit-Equity Power Relationship’, The Journal of Fixed Income, 24, 3, 77-87.
Zimmermann, P. (2021), ‘The Role of the Leverage Effect in the Price Discovery Process of Credit Markets’, Journal of Economic Dynamics and Control, 122, 104033.
The recent legislative elections in France highlighted once again the discontent of the electorate in numerous countries with the development of their environment. Almost 60% of French voters listed on the electoral register made their choice… not to choose (non-voters, blank votes and spoilt votes) and almost 40% of those who did cast a ballot did so in favour of political organisations (parties or alliances) that are traditionally anti-establishment (the Rassemblement National and the Nouvelle Union Populaire, Ecologique et Sociale).
If we take a short-term focus, finding the reasons for this mix of pessimism and ill-humour—confirmed as it happens by a stark contraction of household confidence—proves to be quite simple. The net acceleration of consumer prices and the war at the European Union’s border, both phenomena being inherently linked, are obvious reasons. These upheavals, the gravity of which should not be underestimated (as we shall see), combine and indeed amplify a general disquiet that has been solidly in place for some time.
Without needlessly going too far back, we cannot fail to recognise that over the past 15 years the world has experienced an entire series of events that have contributed if not to a loss of our bearings, then to the questioning of the way we perceive the environment in which we are evolving.
Let us list some of these events, without looking to be exhaustive:
• the financial crisis (2008)
• the swing between the USA tending to retreat from global affairs and China, up to now, being more and more present (the new silk roads in 2015), with Europe in the middle trying to find itself (Brexit in 2016)
• the change in direction of US policy towards China (distrust and distance from 2017)
• Russia’s challenging of its neighbours’ borders (2008, 2014 and of course very recently in February this year)
• societies becoming more fragile (the Arab Spring in 2010–2011, the French Yellow Jackets in 2018, the assault on Congress in the USA in 2021, the Black Lives Matter movement in 2013, the refugee crisis in 2015, the Paris attacks in 2015)
• the rise of the environmental question (from the Fukushima accident in Japan in 2011 to a more complete realisation of climate change from 2018, with Greta Thunberg, among others)
• an economy that does not work for the benefit of all (the Panama Papers in 2016 on tax avoidance processes), against a contrasting backdrop of only passable, if not mediocre, performance at the macroeconomic scale but more dazzling performance at the microeconomic level (cf. GDP, and therefore revenues, vs the profits of listed companies)
• a pandemic crisis (COVID-19) highlighting the fragility of production chains that are too long and too complex (‘just in case’ taking over from ‘just in time’ but with what economic consequences?), not to mention the crisis linked to humanity’s abuse of Mother Nature
• the political and social question (the need to protect and share wealth)
It is on these already weakened foundations that the most recent events (inflation and the war, to put it simply) are being felt as potential vectors of rupture, similarly to potential catalysts of change that were until now latent. This rupture could take two forms.
First, and based on a deductive approach, there is the risk that geopolitical tectonic plates, to quote Pierre-Olivier Gourinchas, the new chief economist of the IMF, take shape, ‘fragmenting the global economy into distinct economic blocs with different ideologies, political systems, technology standards, cross border payment and trade systems, and reserve currencies’. The political landscape of the world would be drastically transformed, with the economic destabilisation that would result from it, at least in the beginning.
Then, and based on an empirical approach drawn from Applied History (the use of history to help benefit people in current and future times), there is the tempting parallel between the current situation and the situation that prevailed in the second half of the 1970s. At the time, the ingredients were episodes of war or regime change in the Middle East and a striking rise in oil prices. The consequence was twofold: the onset of spiralling inflation and a change of regulation, at the same time less interventionist and Keynesian and more liberal and ‘Friedmanian’: less systematic drive for budgetary activism, less regulation of the labour market, privatisation of public companies and more openness to external exchanges.
Let us delve into this second topic – or at least try. In the same way that correlation does not mean causation, parallel might mean trivial! By what path would comparable causes produce a change in the conduct of the economy, but in the opposite direction?
Is it not time to foresee a return to more voluntarist economic policies instead of prioritising laissez-faire economics? Yes, of course, but we must understand that this aspiration derives more from a reaction to a general context considered dysfunctional rather than from the search for an appropriate response to the beginning of snowballing prices.
Public opinion (or those who influence it) seems to show dissatisfaction, with the source of the problem behind it lying in the regulation in place today. This leads to an emphasis on an attitude that favours the alternative to the current logic: goodbye Friedman and hello Keynes, nice to see you again!
Nevertheless, beyond the causalities and their occasional loose ends to be tied up, the aspiration for a change in the administrat ion of the economy remains. The keywords might be the following: energy transition and inclusion. That means cooperation between countries (yes to competition in an open world, but not to strategic rivalry); reconciliation between public decision-makers, but also private ones, and the various other actors of economic and social life (the stakeholding); and the return to a ‘normal’ redistribution of wealth from the most to the least privileged.
To paraphrase Harvard University Professor Dani Rodrik, a globalised economic system cannot be the end and the political and social balances of each country the means; the logic must be put in the right order (a return in a way to the spirit of Bretton Woods).
In this way, at least we can hope, the global economic system will not fragment and inflation will be contained.
At least in the West, citizens and political leaders should align their aspirations and their efforts in this quest. Will businesses follow them? Will they not have something to lose, at least the largest of them?
We must of course raise the difficulty that may exist in reconciling the economic globalisation experienced over the past 30 years or so and the values that now prevail in society.
This requires adaptation, but without opposing the behaviour of the past and the aspirations—most certainly lasting—that have emerged. In the future (far ahead!), there will be no economic success in a world made inhospitable by the climate or by politics.
It is possible to ‘make some money’ occasionally by optimising customer, supplier and employee relationships, but taking a more long-term view, a ‘functional’ planet and ‘calm’ societ y are prerequisites.
Maybe we too easily tend to oppose market logic head-on to state and societal logic. Doubtless, it is more a question of positioning the cursor in the right place based on the changes observed or foreseen. That is where we are today; it is more about evolution than revolution!
Accuracy is pleased to announce that five of its experts have been listed as Thought Leaders in Who’s Who Legal’s Arbitration Expert Witnesses 2022 edition.
Through nominations from peers and clients, the following Accuracy experts have been recognised as the leading names in the field:
Who’s Who Legal identifies the foremost legal practitioners and consulting experts in business law based upon comprehensive, independent research. Entry into their guides is based solely on merit.
Accuracy’s forensic, litigation and arbitration experts combine technical skills in corporate finance, accounting, financial modelling, economics and market analysis with many years of forensic and transaction experience. We participate in different forms of dispute resolution, including arbitration, litigation and mediation. We also frequently assist in cases of actual or suspected fraud. Our expert teams operate on the following basis:
• An in-depth assessment of the situation; • An approach which values a transparent, detailed and well-argued presentation of the economic, financial or accounting issues at the heart of the case; • The work is carried out objectively with the intention to make it easier for the arbitrators to reach a decision; • Clear, robust written expert reports, including concise summaries and detailed backup; • A proven ability to present and defend our conclusions orally.
Our approach provides for a more comprehensive and richer response to the numerous challenges of a dispute. Additionally, our team includes delay and quantum experts, able to assess time related costs and quantify financial damages related to dispute cases on major construction projects.
Le cabinet de conseil financier ACCURACY accélère sa stratégie de croissance et annonce la reprise des activités d’Associés en Finance, acteur de référence de l’évaluation financière.
Avec cette acquisition, Accuracy conforte sa position de leader sur le marché de l’évaluation financière, complète son expertise et renforce ses équipes sur de nombreux sujets comme les attestations d’équité, l’évaluation d’entreprise dans des contextes variés ou encore l’évaluation d’instruments financiers.
In this final edition of the Economic Brief before the summer break, we will zoom in on inflation and consider how the current situation might unfold. As we have seen in past editions, inflation is now at levels unseen since the 1970s, with numerous contributing factors, from the geopolitical to the macroeconomic. But just where is inflation heading?
La récente élection législative française envoie un nouveau message sur le mécontentement des citoyens électeurs dans nombre de pays, concernant l’évolution de leur environnement. Presque 60% des Français inscrits sur les listes électorales ont fait le choix… de ne pas choisir (abstentions et votes blancs ou nuls) et près de 40% de ceux qui ont exprimé une préférence partisane l’ont fait en faveur d’organisations (partis ou réunion de partis) de tradition plutôt contestataire (Le Rassemblement National et la Nouvelle Union Populaire, Ecologique et Sociale).
Si on prend une focale courte, trouver les raisons de ce mélange de pessimisme et de mauvaise humeur, confirmé au demeurant par un repli marqué de la confiance des ménages, n’est pas très compliqué.
La nette accélération des prix et la guerre à la frontière de l’Union Européenne, les deux phénomènes n’étant pas indépendants, en sont les raisons évidentes. Ces bouleversements, dont la gravité n’est pas du tout à minorer (nous allons le voir), s’ajoutent et en fait amplifient un mal-être solidement en place depuis déjà longtemps. Sans remonter inutilement loin en arrière, comment ne pas reconnaître que le monde a enregistré au cours des quinze dernières années toute une série d’évènements qui participent, si ce n’est d’une perte de repères, d’une remise en cause de la façon de percevoir l’environnement dans lequel chacun évolue ? Dressons en une liste, sans forcément chercher à être exhaustif :
• la crise financière (2008),
• le balancement entre des Etats-Unis plutôt en retrait des affaires du monde et une Chine jusqu’à maintenant de plus en plus présente (les nouvelles routes de la soie en 2015) et au milieu une Europe qui se cherche (le Brexit en 2016),
• la réorientation de la politique américaine vis-à-vis de la Chine (méfiance et prise de distance à partir de 2017),
• la remise en cause des frontières de ses voisins par la Russie (2008, 2014 et donc et très récemment en février de cette année),
• la fragilisation des Sociétés (des printemps arabes en 2010 – 2011 aux gilets jaunes français en 2018 et à l’assaut sur le Congrès des Etats-Unis en 2021 ; des mouvement Black Lives Matter – 2013 – à la crise des réfugiés – 2015 – et aux attentats de Paris – 2015 –),
• la montée de la question environnementale (de l’accident de Fukushima au Japon en 2011 à une prise de conscience plus entière du réchauffement climatique à partir de 2018, entre autres avec Greta Thunberg),
• une économie qui ne fonctionne pas au bénéfice de tous (les Panama papers en 2016 sur les processus d’évitement de l’impôt), sur fond justement de contraste entre des performances macroéconomiques passables, voire médiocres, et microéconomiques plus étincelantes – cf. PIB, et donc revenus, vs profits des entreprises cotées –),
• une crise épidémique mondiale (la COVID 19) qui pointe la fragilité de chaines de production trop longues et trop complexes (le just in case qui supplanterait le just in time ; avec quelles conséquences économiques ?) et encore plus celle de l’espèce humaine qui aurait abusé de trop de « mère nature »,
• in fine, la question politique et sociale (besoin de protection et partage des richesses) s’impose progressivement dans le débat électoral.
C’est sur ces soubassements déjà fragilisés que les évènements les plus récents (l’inflation et la guerre, pour faire simple) sont ressentis comme des vecteurs possibles de rupture ; un peu comme des catalyseurs éventuels de changements jusqu’alors davantage latents. Cette rupture pourrait être de deux ordres. D’abord et selon une démarche déductive, il y a le risque qu’une sorte de tectonique des plaques, pour reprendre l’expression de Pierre-Olivier Gourinchas, le nouveau Chef-économiste du FMI, se mette en place, « fragmentant le système économique mondial, en blocs distincts, chacun avec sa propre idéologie, son propre système politique, ses propres standards technologiques, ses propres systèmes commerciaux et de paiement et sa propre monnaie de réserve ».
La géographie politique du monde serait profondément transformée, avec la déstabilisation économique qui, au moins dans un premier temps, en découlerait. Ensuite et en fonction d’une approche empirique tirée de l’histoire appliquée (l’Applied History, selon l’expression du monde académique anglo-saxon), il y a ce parallèle qu’il est peut-être tentant de faire entre la situation actuelle et celle ayant prévalu à partir de la seconde moitié des années 70. A l’époque, les ingrédients sont des épisodes de guerre ou de changement de régime au Moyen-Orient et un fort renchérissement des cours du pétrole. La conséquence est double : l’enclenchement d’une spirale inflationniste et un changement de « régulation », à la fois moins interventionniste et keynésienne et plus libérale et « friedmaniènne » : moins d’allant systématique pour l’activisme budgétaire, allègement des réglementations du marché du travail, privatisation d’entreprises publiques et plus grande ouverture aux échanges extérieurs.
Creusons ce deuxième sujet ; au moins essayons. En gardant à l’esprit que, au même titre que corrélation n’est pas raison, parallèle peut être bagatelle ! Par quel cheminement, des causes comparables produiraient certes un changement dans la conduite de l’économie, mais de direction opposée ? N’est-il pas dans l’air du temps de pronostiquer le retour à des politiques économiques plus volontaristes et faisant moins la part belle au « laisser-faire » ? Oui, bien sûr ; mais il faut comprendre que cette aspiration tient plus de la réaction à un cadre général considéré comme dysfonctionnel que de la recherche d’une réponse adaptée à un début d’emballement des prix.
Les opinions publiques (ou ceux qui les influencent) expriment une insatisfaction et considèrent que l’origine du problème à la genèse de celle-ci est à rechercher dans la régulation en cours aujourd’hui. Avec alors la mise en avant d’une attitude qui consiste à plébisciter l’alternative à la logique en cours : adieu Friedman et content de te revoir Keynes !
Il n’empêche que, au-delà de causalités pas toujours bien « ficelées », l’aspiration à un changement d’administration de l’économie demeure. Les maîtres-mots en seraient les suivants : transition énergétique et inclusion. Ce qui signifie : coopération entre pays (oui à la concurrence au sein d’un monde ouvert, mais non à la rivalité stratégique), rapprochement entre les décideurs publics, mais aussi privés, et les différents autres acteurs de la vie économique et sociale (le stakeholding) et retour à une redistribution « normale » des milieux les plus favorisés vers ceux les plus modestes. Pour reprendre les mots de Dani Rodrik, professeur à l’université d’Harvard, « un système économique mondialisé ne peut pas être la fin et les équilibres politiques et sociaux propres à chaque pays, un moyen ; il faut remettre la logique dans le bon sens (revenir en quelque sorte à l’esprit de Bretton Woods) ».
Ainsi, au moins peut-on l’espérer, la « fragmentation du système économique mondial » n’aurait pas lieu et l’inflation serait contenue. Au moins en Occident, l’essentiel des citoyens et des responsables politiques devrait aligner leurs aspirations et leurs efforts dans cette quête. Les entreprises suivraient-elles ? N’ont-elles pas à y perdre, au moins pour les plus grandes d’entre-elles ?
On doit évidemment soulever la difficulté qui peut exister entre la pratique de la mondialisation économique vécue au cours des quelque trente dernières années et les valeurs qui s’imposent maintenant dans la Société. Cela nécessite une adaptation ; mais sans qu’il faille opposer le comportement d’autrefois aux aspirations, très certainement durables, qui sont apparues. En regardant devant (loin devant !), il n’y aura pas de réussite économique dans un monde devenu invivable à cause du climat ou de la politique.
Il est possible ponctuellement de « faire plus d’argent » en optimisant les relations avec les clients, les fournisseurs et les employés ; dans une perspective plus longue, une planète « fonctionnelle » et une Société « apaisée » sont des prérequis qui s’imposent. Peut-être a-t-on trop facilement tendance à opposer frontalement logique de marché aux logiques étatique et sociétale. Sans doute est-il davantage question de positionner au bon endroit le curseur en fonction des changements observés ou pressentis On en est là aujourd’hui et il s’agit bien plus d’évolution que de révolution !
Philippe Raimbourg Directeur de l’Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Professeur affilié à ESCP Business School
La dynamique des spreads de credit corporate
L’analyse de la dynamique des spreads de crédit renvoie largement à celle des ratings financiers et de leur impact sur le cours des titres de créances.
Cette problématique est régulièrement documentée depuis plus de cinquante ans et a donné lieu à de nombreuses études statistiques. Pour l’essentiel, ces études sont convergentes et font apparaître des réactions différentes des investisseurs en cas de downgrading ou d’upgrading. L’observation du cours des titres de créances met en évidence une anticipation des downgradings par le marché financier, les cours évoluant de façon significative à la baisse plusieurs jours de bourse avant la dégradation. A la date de l’annonce par l’agence, les réactions sur les cours sont de faible ampleur. En revanche, les upgradings ne sont guère anticipés, les porteurs de titres de créances étant surtout vigilants à ne pas subir les moins-values résultant d’une dégradation. Remarquons aussi que du fait de la maturité bornée des titres de créances, les ordres acheteurs sont structurellement plus importants que les ordres vendeurs et qu’en conséquence les seconds sont plus facilement perçus comme des signaux de défiance par le marché.
Des études plus récentes se sont intéressées à l’impact des modifications de rating sur la volatilité et la liquidité des titres. Les dégradations sont précédées d’un accroissement de la volatilité et d’une augmentation du bid-ask spread témoignant d’une réduction de la liquidité ; l’incertitude quant au risque de crédit du titre considéré induit des comportements différenciés parmi les investisseurs et des évaluations disparates. La publication de la note a pour effet d’homogénéiser les perceptions des investisseurs, de réduire la volatilité et d’accroître la liquidité. Les effets sont moins nets en cas d’upgrading, car la modification de note n’étant pas anticipée, l’effet d’homogénéisation des perceptions est moindre et contrebalancé par la volonté de certains investisseurs de mettre à profit cette amélioration de la qualité de crédit pour enregistrer des gains spéculatifs.
Ces études éclairent d’un nouveau jour la question de l’utilité des agences de notation. Les agences transmettent effectivement de l’information aux investisseurs, mais peut-être pas à tous, les investisseurs informés les devançant dans la surveillance de la qualité de crédit des émetteurs. En revanche, les investisseurs moins informés ont besoin de l’avis de l’agence pour être certains que la baisse des prix observée correspond effectivement à une dégradation de la qualité de crédit. L’annonce de l’agence efface cette disparité de perception entre investisseurs et fait ressortir l’utilité de l’agence qui stabilise les prix et accroît la liquidité.
La dynamique des spreads de crédit ne peut pas par ailleurs être étudiée séparément de celle des autres valeurs mobilières. Le monde du crédit n’est évidemment pas coupé de celui des actions. L’intuition nous le fait aisément comprendre. Une baisse du cours de l’action est généralement le corollaire de difficultés opérationnelles se traduisant par une diminution des flux d’exploitation et par une moindre couverture des charges de rémunération et de remboursement de la dette. Parallèlement, cette moindre valeur de l’action est synonyme d’un accroissement du levier financier et, à volatilité du taux de rentabilité des actifs donnée, d’un accroissement de la volatilité du taux de rentabilité de l’action. Se conjuguent ainsi une diminution du cours de l’action, une augmentation du levier financier, un accroissement de la volatilité de l’action ainsi que du risque de crédit.
D’un point de vue théorique, Robert Merton a été le premier à exprimer le spread de crédit en fonction du cours de l’action. On ne reprendra pas ici son travail. On s’intéressera plutôt à la relation credit-equity telle qu’elle est habituellement utilisée dans l’industrie financière. Il est en effet usuel d’utiliser pour cela une fonction puissance libellée sur les taux de croissance :
CDSt / CDSREF = [ SREF / St ] α
Le taux de croissance du spread de crédit, mesuré par le CDS, est ainsi fonction du taux de décroissance du cours de l’action modulo une puissance α que l’on suppose positive, REF étant une date particulière servant de base de calcul au taux d’évolution du CDS et de l’action.
La connaissance du paramètre α permet de complétement spécifier cette relation. Remarquons tout d’abord que, tel que défini par l’équation précédente, α est l’opposé de l’élasticité de la valeur du CDS par rapport à celle de l’action. En prenant le logarithme de cette équation, il vient :
Ln [CDSt / CDSREF] = – α Ln [ St / SREF ]
α = – Ln [CDSt / CDSREF] / Ln [ St / SREF ]
Rapport de deux taux de croissance relative, le paramètre α est bien, au signe près, l’élasticité de la valeur du CDS par rapport à celle de l’action que l’on peut encore écrire :
α = – [S/CDS] [δCDS / δS]
En exprimant la dérivée de la valeur du CDS par rapport à celle de l’action [δCDS / δS], on est conduit à la valeur suivante du paramètre α :
α = 1 + l avec l = D/(S+D) Le monde du crédit et celui des actions sont ainsi en étroite relation : une relation inverse relie les spreads de crédit et le cours des actions ; cette relation est fortement dépendante de la structure de financement de l’entreprise et de son levier calculé par rapport au total de bilan (S+D). Plus ce levier est élevé, plus les éventuelles sous performances de l’action se traduiront par des hausses importantes du spread de crédit.
D’un point de vue empirique, si cette corrélation apparaît relativement faible lorsque les marchés sont calmes, elle devient en revanche très significative lorsque les marchés sont volatiles. Lorsque le levier est faible, le graphique représentant l’évolution des spreads de crédit (en ordonnées) par rapport au cours de l’action fait ressortir, une relation plutôt linéaire et proche de l’horizontale ; en revanche, lorsque le levier est plus important une courbe fortement convexe apparaît.
Cette relation étant posée, on peut maintenant s’interroger sur le sens de la relation, ou, si l’on préfère, se demander quel est le marché directeur. Pour cela, il est nécessaire de procéder à des tests de co-intégration du marché du crédit et de celui des actions. L’idée est que ces deux marchés sont sensibles au risque de crédit et à son prix, et que des arbitrageurs vont se charger de faire apparaître une cohérence dans les équilibres de long terme au sein de ces deux marchés.
A cet effet, deux séries de tests économétriques sont menés de façon symétrique. Les premiers cherchent à expliquer les variations du cours des actions par celles des CDS, retardées ou non de plusieurs périodes, et réciproquement pour ce qui est des variations de valeur des CDS en intégrant dans ce dernier cas les évolutions du levier financier. Ces relations, testées sur la période 2008-2020 sur 220 titres cotés appartenant à l’index S&P 500, font ressortir les résultats suivants :
– Il existe des canaux d’information entre le compartiment actions de la cote et le marché des CDS. Ces canaux d’information concernent toutes les entreprises, quels que soient leur secteur ou leur niveau d’endettement : les traders ‘informés’, en raison même de l’existence d’un levier financier, prennent des positions aussi bien sur le marché actions que sur le marché du crédit.
– Dans la majorité des cas (deux tiers des entreprises étudiées), le marché directeur est le marché actions dont les variations déterminent à concurrence de 70% celles des CDS.
– Toutefois, dans le cas d’entreprises au levier financier important, le processus de découverte des prix prend son origine sur le marché des CDS qui explique plus de 50% des variations de prix.
Ces travaux empiriques montrent toute l’importance, si besoin en était, du modèle structurel de risque de crédit proposé par le prix Nobel Robert Merton en 1974.
Références
Lovo, S., Raimbourg Ph., Salvadè F. (2022), “Credit Rating Agencies, Information Asymmetry, and US Bond Liquidity”, Journal of Business, Finance and Accounting, https://doi.org/10.1111/ jbfa.12610
Zimmermann, P. (2015), « Revisiting the Credit-Equity Power Relationship, The Journal of Fixed Income, 24, 3, 77-87.
Zimmermann, P. (2021), “The Role of the Leverage Effect in the Price Discovery Process of Credit Markets”, Journal of Economic Dynamics and Control, 122, 104033.
Cesser de tout voir à travers le prisme de la complexité : c’est sans doute là le réapprentissage le plus difficile que nous ayons à effectuer. Le plus difficile car le paradigme de « la pensée complexe » (Edgar Morin1) a tout envahi. La sémantique que nous utilisons chaque jour en témoigne : rien qui ne soit devenu « systémique », « hybride », « holistique », « liquide » ou « gazeux ». Où que nous tournions nos regards, le monde « VUCA » (volatile, incertain, complexe, ambigu2) s’impose désormais comme notre horizon ultime.
Or, appliqué à toute situation, ce dogme de la complexité nous fait perdre en compréhension, en potentiel d’action et en responsabilité. En compréhension, d’abord, car il impose une représentation baroque du monde où tout est enchevêtré, où la partie est dans le tout mais aussi le tout dans la partie3, où les causes d’un événement sont indéterminables et soumises aux effets de rétroactions de leurs propres conséquences4. Renvoyant la recherche de la vérité à une approche réductrice et mutilante du réel, il encourage également l’équivalence des opinions et accentue ainsi les travers de l’ère de la post-vérité5.
Perte d’action, ensuite, car à partir du moment où tout est complexe, comment ne pas céder à la panique et à la paralysie ? Par où commencer si, dès lors qu’on touche un fil du tissu du réel, toute la bobine risque de s’emmêler encore davantage ? Notre inaction climatique tient en partie à cette représentation du problème comme étant d’une complexité sans fin et à l’idée que la moindre démarche pour le résoudre pose d’autres problèmes encore plus graves. La fable du battement de l’aile de papillon qui, au Brésil, peut générer un ouragan à l’autre bout du monde, nous rend inertes et impuissants. Or « le secret de l’action, c’est de s’y mettre », répétait le philosophe Alain.
« C’est complexe » devient ainsi bien vite une formule d’excuse pour ne pas agir. Alors que l’état du monde nécessiterait que nous nous engagions plus que jamais, nous assistons aujourd’hui à un phénomène de grand désengagement, perceptible dans la sphère civique comme sur le terrain des entreprises. Renvoyant à des effets de systèmes, le dogme de la complexité déresponsabilise les individus. Aussi réapprendre à penser, à agir et à vivre avec simplicité, apparaît-il plus urgent que jamais. Sans que ce chemin ne soit aisé, comme le souligne l’architecte minimaliste John Pawson : « La simplicité est en définitive très difficile à atteindre. Elle repose sur l’attention, la pensée, le savoir et la patience. »6 Ajoutons à ces ingrédients le « courage », celui de remettre en question une représentation du réel triomphante qui pourrait bien être l’une de nos grandes idéologies contemporaines.
____________
1Publié en 1990, le livre Introduction à la pensée complexe, d’Edgar Morin, présente les grands principes de la pensée complexe.
2L’acronyme VUCA (Volatility, Uncertainty, Complexity, Ambiguity) a été forgé par l’armée américaine dans les années 1990.
3Edgar Morin nomme cette idée le « principe hologrammatique ».
4C’est ce que l’auteur de La Pensée Complexe appelle « principe récursif »
5C’est une interprétation possible d’un autre principe de la pensée complexe, le « principe dialogique ».
6Le livre Minimum, de John Pawson, est paru en 2006.
L’immobilier est-il en haut de cycle ? L’exemple de Paris.
Que penser de la stabilité des prix au m2 de l’immobilier résidentiel à Paris, et ce malgré la crise sanitaire ?
Depuis mars 2020, la pandémie de Covid-19 a profondément bouleversé l’économie mondiale provoquant des changements dans de nombreux secteurs, notamment dans l’immobilier résidentiel.
Cette crise sanitaire est notamment à l’origine d’un bouleversement des paradigmes économiques en place depuis les années 2010. La zone euro fait actuellement face à une augmentation forte de l’inflation qui a atteint 5,2% en mai 2022, un niveau sans précédent depuis 1985. Les conditions d’accès au crédit immobilier pour les particuliers deviennent aussi progressivement plus difficiles.
Pourtant, malgré ce contexte et contrairement aux crises précédentes, le prix au m2 des logements anciens à Paris n’a pas connu de baisse significative et est demeuré relativement stable.
Face à cette situation, deux thèses s’opposent : d’une part, certains considèrent que la hausse constante du prix de l’immobilier ancien à Paris est justifiée par son caractère unique, ville des lumières, la mettant à l’abri des cycles économiques tandis que d’autres s’alarment d’une bulle immobilière dans la capitale qui serait sur le point d’éclater.
FAISONS PARLER LES CHIFFRES
Selon la base de données des notaires parisiens, le prix au m2 des logements anciens est passé de 3 463 €/m2 à 10 760 €/m2 entre 1991 et avril 2022, soit une hausse de l’ordre de 3,6% par an en moyenne. En parallèle, l’inflation s’est élevée, sur la même période, à environ 1,8% par an en moyenne, selon l’INSEE.
En synthèse, la valeur du mètre carré parisien a ainsi crû 2 fois plus vite en moyenne que l’inflation.
Sur le graphique ci-dessous, nous pouvons observer la courbe d’augmentation réelle du prix au m2 de l’immobilier à Paris versus une courbe du prix au m2 de 1991, inflatée ensuite chaque année au taux de l’inflation Insee.
Deux phases peuvent être observées sur ce graphe :
• Sur la période allant de 1991 à 2004, le prix au m2 réel est resté inférieur au prix de 1991 inflaté Insee. Le prix de l’immobilier avait fortement crû sur la période avant 1991 puis subi une correction majeure d’environ 35% entre 1991 et 1997. C’est seulement en 2004 que la courbe du prix immobilier parisien réelle est revenue croiser la courbe inflatée Insee.
Pour mémoire, l’année 1991 marque une année de haut de cycle ayant achevé une phase haussière de spéculation des marchands de biens à Paris et le début de ce qui sera qualifiée par certains experts de « crise immobilière du siècle ».
• Sur la période allant de 2004 à avril 2022, le prix au m2 réel a crû très significativement, bien plus rapidement que l’inflation économique : +5,0% par an en moyenne pour le prix de l’immobilier réel versus seulement +1,8% pour l’inflation. Il y a ainsi une déconnexion majeure entre l’évolution des prix de l’immobilier résidentiel à Paris et l’augmentation moyenne du niveau de vie.
Par ailleurs, il est intéressant de noter qu’entre 2020 et 2022, le prix au m2 à Paris n’a connu aucune variation majeure, contrairement aux crises précédentes (1991 ou 2008).
On observe cependant en ce premier trimestre 2022 le retour d’une inflation significative sans répercussion à ce stade sur les prix réels de l’immobilier.
Est-ce dû à une demande croissante ?
Nombreux sont les défenseurs de la thèse suivante : la demande pour Paris est croissante et confrontée à une offre limitée ce qui a provoqué la hausse constante des prix au m2, et ce même quel que soit la période du cycle économique.
La réalité démographique se révèle, en réalité, bien plus complexe. Ainsi, entre 1990 et 2020, le nombre d’habitants à Paris est passée de 2,15 millions d’habitants à 2,19 millions avec un point culminant de 2,24 millions en 2010. D’autre part, depuis 2021, la population parisienne tend à diminuer progressivement pour atteindre 2,14 millions d’habitants en 2022. En effet, une partie des Parisiens, éprouvée par les restrictions sanitaires, ont décidé de quitter Paris intra-muros pour la petite et grande couronne ou d’autres régions de France.
Cette tendance à la délocalisation hors de Paris intra-muros a également été observée chez les ménages de retour de Londres consécutivement au Brexit.
Cette tendance décroissante s’accompagne d’une augmentation de la pression démographique dans le reste de l’Ile-de-France (hors Paris). Les départements de la Petite et de la Grande Couronne ont vu leur population croître de 8,5 à 10,3 millions d’habitants entre 1990 et 2022.
Ainsi, depuis 1990, Paris connait une dynamique démographique relativement stable amorçant même une baisse depuis 2021. La demande ne semble donc pas permettre de justifier la hausse significative des prix réels de l’immobilier résidentiels à Paris.
Est-ce dû à une offre décroissante ?
A Paris, les volumes de transactions sont plus élevés en période de hausse des prix (entre 35 000 et 40 000 transactions par an en phase haussière) alors que ceux-ci baissent significativement en phase baissière (25 000 à 30 000 transactions).
Il est donc temps de mettre définitivement fin à une idée reçue : la baisse du volume de biens à vendre ne fait pas mécaniquement monter les prix.
La réalité économique est différente : lorsque les prix sont élevés, les propriétaires sont plus enclins à vendre leur bien, soit pour réaliser une plus-value, soit parce qu’ils ont confiance dans le marché et sont disposés à réaliser une opération de vente puis d’achat d’un nouveau bien (souvent dans la séquence inversée d’ailleurs).
A l’inverse, en période de prix décroissants, le marché se grippe. Les propriétaires repoussent au maximum l’éventualité d’une vente dans l’attente de jours meilleurs.
La conclusion à laquelle nous aboutissons est ainsi la suivante : la croissance historique des prix au m2 sur le marché immobilier résidentiel parisien ne s’explique pas par des mécanismes économiques classiques d’offre et de demande.
La dynamique des prix sur ce marché doit même être considérée comme « contra-économique » : l’offre croît en volume lorsque les prix augmentent ; l’offre décroît en volume lorsque les prix baissent.
Lorsque l’on concentre l’analyse sur la crise sanitaire récente, nous observons que les volumes de transactions ont baissé sur le marché parisien. Le marché immobilier résidentiel à Paris a, en effet connu un creux dès le premier confinement, passant de 35 100 transactions par an à 31 200 en 2020 pour revenir à 34 900 sur l’année 2021.
Cette variation s’explique notamment par la structure particulière du confinement, les investisseurs n’ayant plus eu la possibilité de mener à terme la procédure d’achat d’un bien immobilier résidentiel (visites, rendez-vous chez le notaire, déménagement, etc.).
Lorsque les mesures sanitaires strictes ont été levées, le marché immobilier a pu reprendre son activité rapidement.
QUELLES SONT LES CONSÉQUENCES DE LA CRISE DE LA COVID-19 SUR LE MARCHÉ DE L’IMMOBILIER RÉSIDENTIEL À PARIS ?
La modification de nos modes de vie – télétravail et départs de Paris – sous l’effet des restrictions sanitaires devait conduire pour certains investisseurs à une chute des prix de l’immobilier à Paris, voire même à l’éclatement d’une bulle comparable à celle de 1991. Marqués par les confinements successifs et découragés par les conditions plus difficiles d’octroi de crédits immobiliers, les particuliers auraient pu se livrer à un exode massif hors de Paris provoquant une diminution des prix de l’immobilier résidentiel à Paris.
Nous observons sur le graphique ci-dessus, que la crise sanitaire semble n’avoir eu que peu d’impact sur les prix du m2 à Paris. Ces derniers ont connu une stagnation, voire une légère diminution sans pour autour descendre sous les 10 000€/ m2 en moyenne.
QUELS SONT LES DRIVERS RÉELLEMENT EXPLICATIFS DE LA HAUSSE DU PRIX AU M2 DE L’IMMOBILIER RÉSIDENTIEL À PARIS ?
La démographie et l’économie n’étant pas vraiment pertinentes pour expliquer la hausse des prix observés sur longue période, quelles sont les variables réellement explicatives de cette évolution ?
Pour répondre à cette question, nous avons construit un modèle de régression multi-variable exploitant des séries historiques longues (1990-2022) et débouchant sur la conclusion suivante :
Depuis 1990, l’évolution des prix au m2 de l’immobilier résidentiel à Paris s’explique « intégralement » et « mathématiquement » par deux variables financières.
En mots simples, cela signifie qu’il est possible d’expliquer – et potentiellement prédire – le prix au m2 de l’immobilier résidentiel à Paris avec une qualité de prédiction extrêmement élevée et ce à partir de seulement deux variables financières.
– Pour les connaisseurs, notre modèle de régression multi-variable atteint un niveau d’indice de corrélation (R2) de 94%1 La première variable explicative est la suivante :
– Variable 1 : l’écart (ou le « spread ») entre le taux OAT 10 ans France et le taux d’inflation Insee ;
– Comme montré par la graphique ci-dessous, prise isolément, cette variable explique l’évolution du prix au m2 avec un R2 de 79% ;
Ce « spread » représente simplement le taux d’intérêt des emprunteurs retraité de l’inflation économique, soit le taux d’intérêt réel net de l’emprunteur.
Cette variable permet ainsi de prendre en compte l’attractivité des ressources mobilisables par l’emprunteur pour acquérir un bien immobilier résidentiel.
Le spread met en lumière l’impact des taux OAT 10 ans France dans l’évolution des prix immobiliers au m2. En effet, lorsque les taux OAT 10 ans France diminuent, les particuliers voient leur capacité d’emprunt augmenter significativement. Par exemple, si le taux d’emprunt d’un particulier baisse d’un point (100 points de base) alors sa capacité d’emprunt croît d’environ 10%. Or le marché immobilier parisien intègre cette composante dans l’évolution des prix au m2. La baisse des taux a historiquement permis une augmentation de la capacité d’emprunt des acquéreurs mais pas de la surface en m² qu’ils peuvent acheter. Le marché absorbe toute augmentation de la capacité d’emprunt dans les prix au m2.
D’autre part, cette variable prend en compte l’effet de l’inflation sur le marché immobilier. L’année 2017 marque l’apparition d’un effet ciseau entre l’OAT 10 ans France et l’inflation. Les taux d’intérêt demeurent stables tandis que l’inflation redémarre significativement. Pour la première fois, en 2017, le spread (OAT 10 ans – inflation) est passé en négatif, ce qui revient à dire que pour la première fois les emprunteurs particuliers peuvent emprunter à taux réels nets négatifs.
Cet effet ciseau s’est accentué depuis 2018, entraînant la poursuite de la hausse du prix au m2 de l’immobilier résidentiel à Paris entre 2018 et 2020.
Mais depuis 2021, l’augmentation inédite de l’inflation couplée à une stagnation des taux directeurs bas sont à l’origine d’un taux de spread financièrement intenable. Ce dernier passe de (0,6) % en 2020 à (3,6) % en 2022. Sur la même période, les prix au m2 ont commencé à régresser alors même que la hausse du coût de la vie a accéléré.
La volonté actuelle de la BCE de relever ses taux directeurs afin de juguler l’inflation devrait venir graduellement atténuer cet effet ciseau historique. Mais les prix au m2 de l’immobilier résidentiel à Paris ont définitivement entamé une baisse remarquable.
La baisse du spread de taux n’est pas le seul, ni le meilleur driver explicatif de la hausse historique des prix au m2 à Paris.
La seconde variable historique est la suivante :
– Variable 2 : Taille du bilan de la BCE ;
– Prise isolément cette variable explique le prix au m2 avec un R2 d’environ 94%. Elle est elle-même significativement corrélée avec la première variable, en raison de la coordination des décisions d’évolution de la politique monétaire de la BCE sur ces deux variables.
Cette variable met en lumière les conséquences de la politique d’assouplissement monétaire mise en place par la Banque Centrale Européenne sur la valorisation des classes d’actifs financiers dont l’immobilier à Paris fait partie intégrante.
Pour permettre aux membres de l’Eurogroupe de faire face aux différentes crises économiques (y compris la crise sanitaire), la BCE a mis en place depuis 2009 une politique ambitieuse de Quantitative Easing, à l’image de la Fed, ayant pour objectif d’assurer la stabilité de l’euro en injectant une grande quantité de monnaie sur le marché.
La mise à disposition de cette masse monétaire auprès des banques ainsi que le maintien de taux de directeurs bas sont également à l’origine de la hausse historique du prix de l’immobilier résidentiel à Paris.
A partir de nos analyses, il est possible de corréler à 94% l’évolution historique des prix au m2 à Paris avec la taille du bilan de la BCE.
Le graphique ci-dessous présente l’évolution du bilan de la BCE, en progression constante depuis 2009.
Cette forte croissance conventionnelles pour répondre aux crises traversées par l’Euro-système en 2009, 2011 et 2020. En rachetant massivement les titres de dettes publiques et privées sur le marché européen pour servir les demandes de refinancement de la part des banques, la BCE crée des conditions favorables de financement de la zone euro dans un contexte de crise et de taux d’intérêt très bas.
Depuis 2009, la BCE a mis en place deux ambitieux programmes d’achats nets d’actifs : l’Asset Purchase Program (APP) et le Pandemic Emergency Purchase Program (PEPP).Ces derniers sont à l’origine d’une augmentation sans précédent du bilan de la BCE depuis sa création. Cependant, alors qu’entre 2020 et 2022, on observe un nouveau doublement du bilan de la BCE, le prix du m2 de l’immobilier à Paris a connu une légère diminution contre une très forte augmentation sur la période 2011-2021. Cette rupture de tendance est majeure.
CONCLUSION
Sur longue période historique, nous avons observé que l’évolution du prix au m2 à Paris est fortement corrélée à la politique monétaire du régulateur européen et ce via deux variables : le spread (OAT 10 ans – inflation) et la taille du bilan de la BCE.
Entre 1999 et 2020, une formule mathématique a permis de prédire avec un taux de pertinence élevé l’évolution du prix du m2 à Paris. Pour ce faire, il suffisait d’écouter le banquier central européen, anticiper et modéliser ses décisions.
Mais les années 2021 et 2022 sont marquées par un changement drastique des indicateurs macroéconomiques.
L’inflation retrouve des niveaux jamais égalés depuis les années 1970 (5,2% en mai 2022) ce qui provoque un dérèglement du taux de spread. De même, la décision de la BCE de mettre en place un plan de rachat des dettes massifs dans le contexte de la crise sanitaire a conduit à un doublement de la taille de son bilan monétaire sans effet notable sur le prix du m2 à Paris.
Les deux variables qui furent le moteur de la hausse des prix depuis 1999, n’expliquent plus, depuis 2020, l’évolution du prix au m2 de l’immobilier résidentiel à Paris. Le modèle est grippé.
Ce fait marque probablement l’entrée dans une période attentiste pouvant entraîner une baisse conjointe des volumes et des prix du m2 (versus l’inflation).
Reste à savoir combien de temps l’investisseur immobilier de 2020 devra encaisser la correction de marché en cours et si l’immobilier parisien jouera bien son rôle de valeur refuge comme lors de la période inflationniste de 1970.
Rnest est un logiciel d’aide à la résolution de problèmes à partir des données web. Philippe Charlot, son fondateur, est parti d’un constat simple : 90% de l’information utile à la prise de décision est présente sur le web. Mais trouver la bonne information est particulièrement complexe. Les sources sont nombreuses, les recherches classiques renvoient à un nombre limité de résultats, et le temps nécessaire à lire, comprendre et synthétiser les pages web est un obstacle important.
Lorsque confronté à une problématique, un utilisateur va habituellement formuler une demande sur des moteurs grand public (Google, Bing, Quant ou encore Yahoo pour ne citer que les principaux) ou pour les plus initiés sur des logiciels de veille (Quid, Palantir, Digimind ou encore Amplyfi). Ces moteurs et logiciels vont chercher les mots clefs dans une page web, sur des sources prédéfinies et pour une productivité quasi nulle.
Grâce à Rnest, l’utilisateur va pouvoir formuler une requête à partir de laquelle le logiciel va mener une exploration précise du web dans une url, un hypertexte ou même un texte proche, et va procéder à la validation précise des pages visitées à l’échelle d’une phrase (et non d’une page), pour un résultat nécessairement beaucoup plus précis et pertinent. Rnest est ainsi capable d’explorer près de 250 000 pages web en quelques heures. Le logiciel est également capable de proposer une note de synthèse problématisée en réponse à la requête initiale.
« Partez de ce que vous connaissez, découvrez ce que personne ne sait encore », promet Rnest. Après avoir formulé la question, quelle que soit sa complexité, l’utilisateur initie la recherche et Rnest explore le web en temps réel pour en extraire les contenus les plus pertinents.
Cette intelligence artificielle, de conception française, navigue en totale indépendance sur le web, s’inspire du comportement humain et répond à des usages extrêmement variés dans tous les secteurs d’activité. Un exemple : à partir de la question « quelles sont les stratégies d’innovation des 200 plus grandes entreprises françaises ? », Rnest va visiter 1 million de pages web, soit l’équivalent de 833 jours d’effort de lecture économisé.
Parmi ses premiers clients, on retrouve notamment BNP Paribas, Bouygues Télécom, Total, EDF, et maintenant Accuracy. Rnest va ainsi faire bénéficier Accuracy de sa puissance dans l’Open Source pour venir enrichir nos conseils aux directions.
Pour cet édito de l’été 2022, j’aurais tout simplement rêvé de vous souhaiter de belles vacances, lumineuses, vaporeuses et enchantées.
Malheureusement, la guerre s’est installée aux portes de l’Europe, les prix s’envolent et la planète suffoque.
Ma plume se doit d’être plus sage.
L’été est propice à la prise de recul : profitons-en pour RÉ-APPRENDRE.
– Réapprendre la simplicité pour retrouver le goût de l’action simple et efficace. Le dogme de la complexité nous paralyse ; détachons-nous de ses liens encombrants ! (Côté Culturel avec Sophie Chassat)
– Réapprendre à vivre ensemble autour de la notion de bien commun et viser une évolution économique raisonnable à long-terme. (Regard sur l’économie avec Hervé Goulletquer)
– Réapprendre à investir à long-terme avec des ressources en quantités limitées, que ce soit :
Dans des technologies du futur :
• Dans Histoires de Start-up avec Romain Proglio, vous découvrirez Rnest, un logiciel d’aide à la résolution de problèmes à partir du Web. Comment plonger dans la profondeur et la complexité du web pour remonter à la surface avec des réponses simples et intelligibles !
Via les grands groupes corporates :
• Dans un contexte de brutale remontée des taux d’intérêt et de durcissement des conditions macro-économiques, il faut réapprendre le lien entre les conditions de financement et la structure financière d’un groupe. Les marchés actions et du crédit sont étroitement liés et leurs évolutions interdépendantes, si bien que les dirigeants doivent finement évaluer les impacts croisés de l’évolution de leur financement. (L’angle académique avec Philippe Raimbourg).
Dans l’immobilier
• L’immobilier est une classe d’actifs considérée comme hautement sûre et prévisible, de surcroît dans des bassins de population et d’activité aussi riches et denses que l’agglomération parisienne. Dans quelle mesure, cette lecture est-elle toujours valable post-2020 après le déferlement de la crise sanitaire et de la vague de capitaux injectés dans l’économie à taux réels négatifs ? (Zoom Sectoriel avec Justine Schmit et Nicolas Paillot de Montabert).
Cet été, inspirons-nous d’Erasme et de sa sagesse toute empreinte d’humanité. « C’est bien la pire folie que de vouloir être sage dans un monde de fou. » « Le monde entier est notre patrie à tous. »
Alors, soyons sages, soyons fous, mais soyons respectueux les uns avec les autres et envers les générations à venir !
Pour notre cinquième édition de Accuracy Talks Straight, Jean-François Partiot présentera l’édito, avant de laisser Romain Proglio nous présenter Rnest, un logiciel d’aide à la résolution de problèmes à partir des données web. Nous analyserons ensuite l’immobilier résidentiel à Paris avec Nicolas Paillot de Montabert et Justine Schmit. Sophie Chassat, Philosophe et associée chez Wemean, nous proposera de réapprendre la simplicité. Enfin, nous nous focaliserons sur la dynamique des spreads de crédit avec Philippe Raimbourg, Directeur de l’Ecole de Management de la Sorbonne et Professeur affilié à ESCP Business School, ainsi que sur Révolution libérale en France avec Hervé Goulletquer, Senior Economic Advisor.
Pour cet édito de l’été 2022, j’aurais tout simplement rêvé de vous souhaiter de belles vacances, lumineuses, vaporeuses et enchantées.
Malheureusement, la guerre s’est installée aux portes de l’Europe, les prix s’envolent et la planète suffoque.
Ma plume se doit d’être plus sage.
L’été est propice à la prise de recul : profitons-en pour RÉ-APPRENDRE.
– Réapprendre la simplicité pour retrouver le goût de l’action simple et efficace. Le dogme de la complexité nous paralyse ; détachons-nous de ses liens encombrants ! (Côté Culturel avec Sophie Chassat)
– Réapprendre à vivre ensemble autour de la notion de bien commun et viser une évolution économique raisonnable à long-terme. (Regard sur l’économie avec Hervé Goulletquer)
– Réapprendre à investir à long-terme avec des ressources en quantités limitées, que ce soit :
Dans des technologies du futur :
• Dans Histoires de Start-up avec Romain Proglio, vous découvrirez Rnest, un logiciel d’aide à la résolution de problèmes à partir du Web. Comment plonger dans la profondeur et la complexité du web pour remonter à la surface avec des réponses simples et intelligibles !
Via les grands groupes corporates :
• Dans un contexte de brutale remontée des taux d’intérêt et de durcissement des conditions macro-économiques, il faut réapprendre le lien entre les conditions de financement et la structure financière d’un groupe. Les marchés actions et du crédit sont étroitement liés et leurs évolutions interdépendantes, si bien que les dirigeants doivent finement évaluer les impacts croisés de l’évolution de leur financement. (L’angle académique avec Philippe Raimbourg).
Dans l’immobilier
• L’immobilier est une classe d’actifs considérée comme hautement sûre et prévisible, de surcroît dans des bassins de population et d’activité aussi riches et denses que l’agglomération parisienne. Dans quelle mesure, cette lecture est-elle toujours valable post-2020 après le déferlement de la crise sanitaire et de la vague de capitaux injectés dans l’économie à taux réels négatifs ? (Zoom Sectoriel avec Justine Schmit et Nicolas Paillot de Montabert).
Cet été, inspirons-nous d’Erasme et de sa sagesse toute empreinte d’humanité. « C’est bien la pire folie que de vouloir être sage dans un monde de fou. » « Le monde entier est notre patrie à tous. »
Alors, soyons sages, soyons fous, mais soyons respectueux les uns avec les autres et envers les générations à venir !
Rnest est un logiciel d’aide à la résolution de problèmes à partir des données web. Philippe Charlot, son fondateur, est parti d’un constat simple : 90% de l’information utile à la prise de décision est présente sur le web. Mais trouver la bonne information est particulièrement complexe. Les sources sont nombreuses, les recherches classiques renvoient à un nombre limité de résultats, et le temps nécessaire à lire, comprendre et synthétiser les pages web est un obstacle important.
Lorsque confronté à une problématique, un utilisateur va habituellement formuler une demande sur des moteurs grand public (Google, Bing, Quant ou encore Yahoo pour ne citer que les principaux) ou pour les plus initiés sur des logiciels de veille (Quid, Palantir, Digimind ou encore Amplyfi). Ces moteurs et logiciels vont chercher les mots clefs dans une page web, sur des sources prédéfinies et pour une productivité quasi nulle.
Grâce à Rnest, l’utilisateur va pouvoir formuler une requête à partir de laquelle le logiciel va mener une exploration précise du web dans une url, un hypertexte ou même un texte proche, et va procéder à la validation précise des pages visitées à l’échelle d’une phrase (et non d’une page), pour un résultat nécessairement beaucoup plus précis et pertinent. Rnest est ainsi capable d’explorer près de 250 000 pages web en quelques heures. Le logiciel est également capable de proposer une note de synthèse problématisée en réponse à la requête initiale.
« Partez de ce que vous connaissez, découvrez ce que personne ne sait encore », promet Rnest. Après avoir formulé la question, quelle que soit sa complexité, l’utilisateur initie la recherche et Rnest explore le web en temps réel pour en extraire les contenus les plus pertinents.
Cette intelligence artificielle, de conception française, navigue en totale indépendance sur le web, s’inspire du comportement humain et répond à des usages extrêmement variés dans tous les secteurs d’activité. Un exemple : à partir de la question « quelles sont les stratégies d’innovation des 200 plus grandes entreprises françaises ? », Rnest va visiter 1 million de pages web, soit l’équivalent de 833 jours d’effort de lecture économisé.
Parmi ses premiers clients, on retrouve notamment BNP Paribas, Bouygues Télécom, Total, EDF, et maintenant Accuracy. Rnest va ainsi faire bénéficier Accuracy de sa puissance dans l’Open Source pour venir enrichir nos conseils aux directions.
L’immobilier est-il en haut de cycle ? L’exemple de Paris.
Que penser de la stabilité des prix au m2 de l’immobilier résidentiel à Paris, et ce malgré la crise sanitaire ?
Depuis mars 2020, la pandémie de Covid-19 a profondément bouleversé l’économie mondiale provoquant des changements dans de nombreux secteurs, notamment dans l’immobilier résidentiel.
Cette crise sanitaire est notamment à l’origine d’un bouleversement des paradigmes économiques en place depuis les années 2010. La zone euro fait actuellement face à une augmentation forte de l’inflation qui a atteint 5,2% en mai 2022, un niveau sans précédent depuis 1985. Les conditions d’accès au crédit immobilier pour les particuliers deviennent aussi progressivement plus difficiles.
Pourtant, malgré ce contexte et contrairement aux crises précédentes, le prix au m2 des logements anciens à Paris n’a pas connu de baisse significative et est demeuré relativement stable.
Face à cette situation, deux thèses s’opposent : d’une part, certains considèrent que la hausse constante du prix de l’immobilier ancien à Paris est justifiée par son caractère unique, ville des lumières, la mettant à l’abri des cycles économiques tandis que d’autres s’alarment d’une bulle immobilière dans la capitale qui serait sur le point d’éclater.
FAISONS PARLER LES CHIFFRES
Selon la base de données des notaires parisiens, le prix au m2 des logements anciens est passé de 3 463 €/m2 à 10 760 €/m2 entre 1991 et avril 2022, soit une hausse de l’ordre de 3,6% par an en moyenne. En parallèle, l’inflation s’est élevée, sur la même période, à environ 1,8% par an en moyenne, selon l’INSEE.
En synthèse, la valeur du mètre carré parisien a ainsi crû 2 fois plus vite en moyenne que l’inflation.
Sur le graphique ci-dessous, nous pouvons observer la courbe d’augmentation réelle du prix au m2 de l’immobilier à Paris versus une courbe du prix au m2 de 1991, inflatée ensuite chaque année au taux de l’inflation Insee.
Deux phases peuvent être observées sur ce graphe :
• Sur la période allant de 1991 à 2004, le prix au m2 réel est resté inférieur au prix de 1991 inflaté Insee. Le prix de l’immobilier avait fortement crû sur la période avant 1991 puis subi une correction majeure d’environ 35% entre 1991 et 1997. C’est seulement en 2004 que la courbe du prix immobilier parisien réelle est revenue croiser la courbe inflatée Insee.
Pour mémoire, l’année 1991 marque une année de haut de cycle ayant achevé une phase haussière de spéculation des marchands de biens à Paris et le début de ce qui sera qualifiée par certains experts de « crise immobilière du siècle ».
• Sur la période allant de 2004 à avril 2022, le prix au m2 réel a crû très significativement, bien plus rapidement que l’inflation économique : +5,0% par an en moyenne pour le prix de l’immobilier réel versus seulement +1,8% pour l’inflation. Il y a ainsi une déconnexion majeure entre l’évolution des prix de l’immobilier résidentiel à Paris et l’augmentation moyenne du niveau de vie.
Par ailleurs, il est intéressant de noter qu’entre 2020 et 2022, le prix au m2 à Paris n’a connu aucune variation majeure, contrairement aux crises précédentes (1991 ou 2008).
On observe cependant en ce premier trimestre 2022 le retour d’une inflation significative sans répercussion à ce stade sur les prix réels de l’immobilier.
Est-ce dû à une demande croissante ?
Nombreux sont les défenseurs de la thèse suivante : la demande pour Paris est croissante et confrontée à une offre limitée ce qui a provoqué la hausse constante des prix au m2, et ce même quel que soit la période du cycle économique.
La réalité démographique se révèle, en réalité, bien plus complexe. Ainsi, entre 1990 et 2020, le nombre d’habitants à Paris est passée de 2,15 millions d’habitants à 2,19 millions avec un point culminant de 2,24 millions en 2010. D’autre part, depuis 2021, la population parisienne tend à diminuer progressivement pour atteindre 2,14 millions d’habitants en 2022. En effet, une partie des Parisiens, éprouvée par les restrictions sanitaires, ont décidé de quitter Paris intra-muros pour la petite et grande couronne ou d’autres régions de France.
Cette tendance à la délocalisation hors de Paris intra-muros a également été observée chez les ménages de retour de Londres consécutivement au Brexit.
Cette tendance décroissante s’accompagne d’une augmentation de la pression démographique dans le reste de l’Ile-de-France (hors Paris). Les départements de la Petite et de la Grande Couronne ont vu leur population croître de 8,5 à 10,3 millions d’habitants entre 1990 et 2022.
Ainsi, depuis 1990, Paris connait une dynamique démographique relativement stable amorçant même une baisse depuis 2021. La demande ne semble donc pas permettre de justifier la hausse significative des prix réels de l’immobilier résidentiels à Paris.
Est-ce dû à une offre décroissante ?
A Paris, les volumes de transactions sont plus élevés en période de hausse des prix (entre 35 000 et 40 000 transactions par an en phase haussière) alors que ceux-ci baissent significativement en phase baissière (25 000 à 30 000 transactions).
Il est donc temps de mettre définitivement fin à une idée reçue : la baisse du volume de biens à vendre ne fait pas mécaniquement monter les prix.
La réalité économique est différente : lorsque les prix sont élevés, les propriétaires sont plus enclins à vendre leur bien, soit pour réaliser une plus-value, soit parce qu’ils ont confiance dans le marché et sont disposés à réaliser une opération de vente puis d’achat d’un nouveau bien (souvent dans la séquence inversée d’ailleurs).
A l’inverse, en période de prix décroissants, le marché se grippe. Les propriétaires repoussent au maximum l’éventualité d’une vente dans l’attente de jours meilleurs.
La conclusion à laquelle nous aboutissons est ainsi la suivante : la croissance historique des prix au m2 sur le marché immobilier résidentiel parisien ne s’explique pas par des mécanismes économiques classiques d’offre et de demande.
La dynamique des prix sur ce marché doit même être considérée comme « contra-économique » : l’offre croît en volume lorsque les prix augmentent ; l’offre décroît en volume lorsque les prix baissent.
Lorsque l’on concentre l’analyse sur la crise sanitaire récente, nous observons que les volumes de transactions ont baissé sur le marché parisien. Le marché immobilier résidentiel à Paris a, en effet connu un creux dès le premier confinement, passant de 35 100 transactions par an à 31 200 en 2020 pour revenir à 34 900 sur l’année 2021.
Cette variation s’explique notamment par la structure particulière du confinement, les investisseurs n’ayant plus eu la possibilité de mener à terme la procédure d’achat d’un bien immobilier résidentiel (visites, rendez-vous chez le notaire, déménagement, etc.).
Lorsque les mesures sanitaires strictes ont été levées, le marché immobilier a pu reprendre son activité rapidement.
QUELLES SONT LES CONSÉQUENCES DE LA CRISE DE LA COVID-19 SUR LE MARCHÉ DE L’IMMOBILIER RÉSIDENTIEL À PARIS ?
La modification de nos modes de vie – télétravail et départs de Paris – sous l’effet des restrictions sanitaires devait conduire pour certains investisseurs à une chute des prix de l’immobilier à Paris, voire même à l’éclatement d’une bulle comparable à celle de 1991. Marqués par les confinements successifs et découragés par les conditions plus difficiles d’octroi de crédits immobiliers, les particuliers auraient pu se livrer à un exode massif hors de Paris provoquant une diminution des prix de l’immobilier résidentiel à Paris.
Nous observons sur le graphique ci-dessus, que la crise sanitaire semble n’avoir eu que peu d’impact sur les prix du m2 à Paris. Ces derniers ont connu une stagnation, voire une légère diminution sans pour autour descendre sous les 10 000€/ m2 en moyenne.
QUELS SONT LES DRIVERS RÉELLEMENT EXPLICATIFS DE LA HAUSSE DU PRIX AU M2 DE L’IMMOBILIER RÉSIDENTIEL À PARIS ?
La démographie et l’économie n’étant pas vraiment pertinentes pour expliquer la hausse des prix observés sur longue période, quelles sont les variables réellement explicatives de cette évolution ?
Pour répondre à cette question, nous avons construit un modèle de régression multi-variable exploitant des séries historiques longues (1990-2022) et débouchant sur la conclusion suivante :
Depuis 1990, l’évolution des prix au m2 de l’immobilier résidentiel à Paris s’explique « intégralement » et « mathématiquement » par deux variables financières.
En mots simples, cela signifie qu’il est possible d’expliquer – et potentiellement prédire – le prix au m2 de l’immobilier résidentiel à Paris avec une qualité de prédiction extrêmement élevée et ce à partir de seulement deux variables financières.
– Pour les connaisseurs, notre modèle de régression multi-variable atteint un niveau d’indice de corrélation (R2) de 94%1 La première variable explicative est la suivante :
– Variable 1 : l’écart (ou le « spread ») entre le taux OAT 10 ans France et le taux d’inflation Insee ;
– Comme montré par la graphique ci-dessous, prise isolément, cette variable explique l’évolution du prix au m2 avec un R2 de 79% ;
Ce « spread » représente simplement le taux d’intérêt des emprunteurs retraité de l’inflation économique, soit le taux d’intérêt réel net de l’emprunteur.
Cette variable permet ainsi de prendre en compte l’attractivité des ressources mobilisables par l’emprunteur pour acquérir un bien immobilier résidentiel.
Le spread met en lumière l’impact des taux OAT 10 ans France dans l’évolution des prix immobiliers au m2. En effet, lorsque les taux OAT 10 ans France diminuent, les particuliers voient leur capacité d’emprunt augmenter significativement. Par exemple, si le taux d’emprunt d’un particulier baisse d’un point (100 points de base) alors sa capacité d’emprunt croît d’environ 10%. Or le marché immobilier parisien intègre cette composante dans l’évolution des prix au m2. La baisse des taux a historiquement permis une augmentation de la capacité d’emprunt des acquéreurs mais pas de la surface en m² qu’ils peuvent acheter. Le marché absorbe toute augmentation de la capacité d’emprunt dans les prix au m2.
D’autre part, cette variable prend en compte l’effet de l’inflation sur le marché immobilier. L’année 2017 marque l’apparition d’un effet ciseau entre l’OAT 10 ans France et l’inflation. Les taux d’intérêt demeurent stables tandis que l’inflation redémarre significativement. Pour la première fois, en 2017, le spread (OAT 10 ans – inflation) est passé en négatif, ce qui revient à dire que pour la première fois les emprunteurs particuliers peuvent emprunter à taux réels nets négatifs.
Cet effet ciseau s’est accentué depuis 2018, entraînant la poursuite de la hausse du prix au m2 de l’immobilier résidentiel à Paris entre 2018 et 2020.
Mais depuis 2021, l’augmentation inédite de l’inflation couplée à une stagnation des taux directeurs bas sont à l’origine d’un taux de spread financièrement intenable. Ce dernier passe de (0,6) % en 2020 à (3,6) % en 2022. Sur la même période, les prix au m2 ont commencé à régresser alors même que la hausse du coût de la vie a accéléré.
La volonté actuelle de la BCE de relever ses taux directeurs afin de juguler l’inflation devrait venir graduellement atténuer cet effet ciseau historique. Mais les prix au m2 de l’immobilier résidentiel à Paris ont définitivement entamé une baisse remarquable.
La baisse du spread de taux n’est pas le seul, ni le meilleur driver explicatif de la hausse historique des prix au m2 à Paris.
La seconde variable historique est la suivante :
– Variable 2 : Taille du bilan de la BCE ;
– Prise isolément cette variable explique le prix au m2 avec un R2 d’environ 94%. Elle est elle-même significativement corrélée avec la première variable, en raison de la coordination des décisions d’évolution de la politique monétaire de la BCE sur ces deux variables.
Cette variable met en lumière les conséquences de la politique d’assouplissement monétaire mise en place par la Banque Centrale Européenne sur la valorisation des classes d’actifs financiers dont l’immobilier à Paris fait partie intégrante.
Pour permettre aux membres de l’Eurogroupe de faire face aux différentes crises économiques (y compris la crise sanitaire), la BCE a mis en place depuis 2009 une politique ambitieuse de Quantitative Easing, à l’image de la Fed, ayant pour objectif d’assurer la stabilité de l’euro en injectant une grande quantité de monnaie sur le marché.
La mise à disposition de cette masse monétaire auprès des banques ainsi que le maintien de taux de directeurs bas sont également à l’origine de la hausse historique du prix de l’immobilier résidentiel à Paris.
A partir de nos analyses, il est possible de corréler à 94% l’évolution historique des prix au m2 à Paris avec la taille du bilan de la BCE.
Le graphique ci-dessous présente l’évolution du bilan de la BCE, en progression constante depuis 2009.
Cette forte croissance conventionnelles pour répondre aux crises traversées par l’Euro-système en 2009, 2011 et 2020. En rachetant massivement les titres de dettes publiques et privées sur le marché européen pour servir les demandes de refinancement de la part des banques, la BCE crée des conditions favorables de financement de la zone euro dans un contexte de crise et de taux d’intérêt très bas.
Depuis 2009, la BCE a mis en place deux ambitieux programmes d’achats nets d’actifs : l’Asset Purchase Program (APP) et le Pandemic Emergency Purchase Program (PEPP).Ces derniers sont à l’origine d’une augmentation sans précédent du bilan de la BCE depuis sa création. Cependant, alors qu’entre 2020 et 2022, on observe un nouveau doublement du bilan de la BCE, le prix du m2 de l’immobilier à Paris a connu une légère diminution contre une très forte augmentation sur la période 2011-2021. Cette rupture de tendance est majeure.
CONCLUSION
Sur longue période historique, nous avons observé que l’évolution du prix au m2 à Paris est fortement corrélée à la politique monétaire du régulateur européen et ce via deux variables : le spread (OAT 10 ans – inflation) et la taille du bilan de la BCE.
Entre 1999 et 2020, une formule mathématique a permis de prédire avec un taux de pertinence élevé l’évolution du prix du m2 à Paris. Pour ce faire, il suffisait d’écouter le banquier central européen, anticiper et modéliser ses décisions.
Mais les années 2021 et 2022 sont marquées par un changement drastique des indicateurs macroéconomiques.
L’inflation retrouve des niveaux jamais égalés depuis les années 1970 (5,2% en mai 2022) ce qui provoque un dérèglement du taux de spread. De même, la décision de la BCE de mettre en place un plan de rachat des dettes massifs dans le contexte de la crise sanitaire a conduit à un doublement de la taille de son bilan monétaire sans effet notable sur le prix du m2 à Paris.
Les deux variables qui furent le moteur de la hausse des prix depuis 1999, n’expliquent plus, depuis 2020, l’évolution du prix au m2 de l’immobilier résidentiel à Paris. Le modèle est grippé.
Ce fait marque probablement l’entrée dans une période attentiste pouvant entraîner une baisse conjointe des volumes et des prix du m2 (versus l’inflation).
Reste à savoir combien de temps l’investisseur immobilier de 2020 devra encaisser la correction de marché en cours et si l’immobilier parisien jouera bien son rôle de valeur refuge comme lors de la période inflationniste de 1970.
Sophie Chassat Philosophe, Associée chez Wemean
Réapprendre la simplicité
Cesser de tout voir à travers le prisme de la complexité : c’est sans doute là le réapprentissage le plus difficile que nous ayons à effectuer. Le plus difficile car le paradigme de « la pensée complexe » (Edgar Morin1) a tout envahi. La sémantique que nous utilisons chaque jour en témoigne : rien qui ne soit devenu « systémique », « hybride », « holistique », « liquide » ou « gazeux ». Où que nous tournions nos regards, le monde « VUCA » (volatile, incertain, complexe, ambigu2) s’impose désormais comme notre horizon ultime.
Or, appliqué à toute situation, ce dogme de la complexité nous fait perdre en compréhension, en potentiel d’action et en responsabilité. En compréhension, d’abord, car il impose une représentation baroque du monde où tout est enchevêtré, où la partie est dans le tout mais aussi le tout dans la partie3, où les causes d’un événement sont indéterminables et soumises aux effets de rétroactions de leurs propres conséquences4. Renvoyant la recherche de la vérité à une approche réductrice et mutilante du réel, il encourage également l’équivalence des opinions et accentue ainsi les travers de l’ère de la post-vérité5.
Perte d’action, ensuite, car à partir du moment où tout est complexe, comment ne pas céder à la panique et à la paralysie ? Par où commencer si, dès lors qu’on touche un fil du tissu du réel, toute la bobine risque de s’emmêler encore davantage ? Notre inaction climatique tient en partie à cette représentation du problème comme étant d’une complexité sans fin et à l’idée que la moindre démarche pour le résoudre pose d’autres problèmes encore plus graves. La fable du battement de l’aile de papillon qui, au Brésil, peut générer un ouragan à l’autre bout du monde, nous rend inertes et impuissants. Or « le secret de l’action, c’est de s’y mettre », répétait le philosophe Alain.
« C’est complexe » devient ainsi bien vite une formule d’excuse pour ne pas agir. Alors que l’état du monde nécessiterait que nous nous engagions plus que jamais, nous assistons aujourd’hui à un phénomène de grand désengagement, perceptible dans la sphère civique comme sur le terrain des entreprises. Renvoyant à des effets de systèmes, le dogme de la complexité déresponsabilise les individus. Aussi réapprendre à penser, à agir et à vivre avec simplicité, apparaît-il plus urgent que jamais. Sans que ce chemin ne soit aisé, comme le souligne l’architecte minimaliste John Pawson : « La simplicité est en définitive très difficile à atteindre. Elle repose sur l’attention, la pensée, le savoir et la patience. »6 Ajoutons à ces ingrédients le « courage », celui de remettre en question une représentation du réel triomphante qui pourrait bien être l’une de nos grandes idéologies contemporaines.
____________
1Publié en 1990, le livre Introduction à la pensée complexe, d’Edgar Morin, présente les grands principes de la pensée complexe.
2L’acronyme VUCA (Volatility, Uncertainty, Complexity, Ambiguity) a été forgé par l’armée américaine dans les années 1990.
3Edgar Morin nomme cette idée le « principe hologrammatique ».
4C’est ce que l’auteur de La Pensée Complexe appelle « principe récursif »
5C’est une interprétation possible d’un autre principe de la pensée complexe, le « principe dialogique ».
6Le livre Minimum, de John Pawson, est paru en 2006.
Philippe Raimbourg Directeur de l’Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Professeur affilié à ESCP Business School
La dynamique des spreads de credit corporate
L’analyse de la dynamique des spreads de crédit renvoie largement à celle des ratings financiers et de leur impact sur le cours des titres de créances.
Cette problématique est régulièrement documentée depuis plus de cinquante ans et a donné lieu à de nombreuses études statistiques. Pour l’essentiel, ces études sont convergentes et font apparaître des réactions différentes des investisseurs en cas de downgrading ou d’upgrading. L’observation du cours des titres de créances met en évidence une anticipation des downgradings par le marché financier, les cours évoluant de façon significative à la baisse plusieurs jours de bourse avant la dégradation. A la date de l’annonce par l’agence, les réactions sur les cours sont de faible ampleur. En revanche, les upgradings ne sont guère anticipés, les porteurs de titres de créances étant surtout vigilants à ne pas subir les moins-values résultant d’une dégradation. Remarquons aussi que du fait de la maturité bornée des titres de créances, les ordres acheteurs sont structurellement plus importants que les ordres vendeurs et qu’en conséquence les seconds sont plus facilement perçus comme des signaux de défiance par le marché.
Des études plus récentes se sont intéressées à l’impact des modifications de rating sur la volatilité et la liquidité des titres. Les dégradations sont précédées d’un accroissement de la volatilité et d’une augmentation du bid-ask spread témoignant d’une réduction de la liquidité ; l’incertitude quant au risque de crédit du titre considéré induit des comportements différenciés parmi les investisseurs et des évaluations disparates. La publication de la note a pour effet d’homogénéiser les perceptions des investisseurs, de réduire la volatilité et d’accroître la liquidité. Les effets sont moins nets en cas d’upgrading, car la modification de note n’étant pas anticipée, l’effet d’homogénéisation des perceptions est moindre et contrebalancé par la volonté de certains investisseurs de mettre à profit cette amélioration de la qualité de crédit pour enregistrer des gains spéculatifs.
Ces études éclairent d’un nouveau jour la question de l’utilité des agences de notation. Les agences transmettent effectivement de l’information aux investisseurs, mais peut-être pas à tous, les investisseurs informés les devançant dans la surveillance de la qualité de crédit des émetteurs. En revanche, les investisseurs moins informés ont besoin de l’avis de l’agence pour être certains que la baisse des prix observée correspond effectivement à une dégradation de la qualité de crédit. L’annonce de l’agence efface cette disparité de perception entre investisseurs et fait ressortir l’utilité de l’agence qui stabilise les prix et accroît la liquidité.
La dynamique des spreads de crédit ne peut pas par ailleurs être étudiée séparément de celle des autres valeurs mobilières. Le monde du crédit n’est évidemment pas coupé de celui des actions. L’intuition nous le fait aisément comprendre. Une baisse du cours de l’action est généralement le corollaire de difficultés opérationnelles se traduisant par une diminution des flux d’exploitation et par une moindre couverture des charges de rémunération et de remboursement de la dette. Parallèlement, cette moindre valeur de l’action est synonyme d’un accroissement du levier financier et, à volatilité du taux de rentabilité des actifs donnée, d’un accroissement de la volatilité du taux de rentabilité de l’action. Se conjuguent ainsi une diminution du cours de l’action, une augmentation du levier financier, un accroissement de la volatilité de l’action ainsi que du risque de crédit.
D’un point de vue théorique, Robert Merton a été le premier à exprimer le spread de crédit en fonction du cours de l’action. On ne reprendra pas ici son travail. On s’intéressera plutôt à la relation credit-equity telle qu’elle est habituellement utilisée dans l’industrie financière. Il est en effet usuel d’utiliser pour cela une fonction puissance libellée sur les taux de croissance :
CDSt / CDSREF = [ SREF / St ] α
Le taux de croissance du spread de crédit, mesuré par le CDS, est ainsi fonction du taux de décroissance du cours de l’action modulo une puissance α que l’on suppose positive, REF étant une date particulière servant de base de calcul au taux d’évolution du CDS et de l’action.
La connaissance du paramètre α permet de complétement spécifier cette relation. Remarquons tout d’abord que, tel que défini par l’équation précédente, α est l’opposé de l’élasticité de la valeur du CDS par rapport à celle de l’action. En prenant le logarithme de cette équation, il vient :
Ln [CDSt / CDSREF] = – α Ln [ St / SREF ]
α = – Ln
[CDSt / CDSREF] / Ln [ St
/ SREF ]
Rapport de deux taux de croissance relative, le paramètre α est bien, au signe près, l’élasticité de la valeur du CDS par rapport à celle de l’action que l’on peut encore écrire :
α = – [S/CDS] [δCDS / δS]
En exprimant la dérivée de la valeur du CDS par rapport à celle de l’action [δCDS / δS], on est conduit à la valeur suivante du paramètre α :
α = 1 + l avec l = D/(S+D) Le monde du crédit et celui des actions sont ainsi en étroite relation : une relation inverse relie les spreads de crédit et le cours des actions ; cette relation est fortement dépendante de la structure de financement de l’entreprise et de son levier calculé par rapport au total de bilan (S+D). Plus ce levier est élevé, plus les éventuelles sous performances de l’action se traduiront par des hausses importantes du spread de crédit.
D’un point de vue empirique, si cette corrélation apparaît relativement faible lorsque les marchés sont calmes, elle devient en revanche très significative lorsque les marchés sont volatiles. Lorsque le levier est faible, le graphique représentant l’évolution des spreads de crédit (en ordonnées) par rapport au cours de l’action fait ressortir, une relation plutôt linéaire et proche de l’horizontale ; en revanche, lorsque le levier est plus important une courbe fortement convexe apparaît.
Cette relation étant posée, on peut maintenant s’interroger sur le sens de la relation, ou, si l’on préfère, se demander quel est le marché directeur. Pour cela, il est nécessaire de procéder à des tests de co-intégration du marché du crédit et de celui des actions. L’idée est que ces deux marchés sont sensibles au risque de crédit et à son prix, et que des arbitrageurs vont se charger de faire apparaître une cohérence dans les équilibres de long terme au sein de ces deux marchés.
A cet effet, deux séries de tests économétriques sont menés de façon symétrique. Les premiers cherchent à expliquer les variations du cours des actions par celles des CDS, retardées ou non de plusieurs périodes, et réciproquement pour ce qui est des variations de valeur des CDS en intégrant dans ce dernier cas les évolutions du levier financier. Ces relations, testées sur la période 2008-2020 sur 220 titres cotés appartenant à l’index S&P 500, font ressortir les résultats suivants :
– Il existe des canaux d’information entre le compartiment actions de la cote et le marché des CDS. Ces canaux d’information concernent toutes les entreprises, quels que soient leur secteur ou leur niveau d’endettement : les traders ‘informés’, en raison même de l’existence d’un levier financier, prennent des positions aussi bien sur le marché actions que sur le marché du crédit.
– Dans la majorité des cas (deux tiers des entreprises étudiées), le marché directeur est le marché actions dont les variations déterminent à concurrence de 70% celles des CDS.
– Toutefois, dans le cas d’entreprises au levier financier important, le processus de découverte des prix prend son origine sur le marché des CDS qui explique plus de 50% des variations de prix.
Ces travaux empiriques montrent toute l’importance, si besoin en était, du modèle structurel de risque de crédit proposé par le prix Nobel Robert Merton en 1974.
Références
Lovo, S., Raimbourg Ph., Salvadè F. (2022), “Credit Rating Agencies, Information Asymmetry, and US Bond Liquidity”, Journal of Business, Finance and Accounting, https://doi.org/10.1111/ jbfa.12610
Zimmermann, P. (2015), « Revisiting the Credit-Equity Power Relationship, The Journal of Fixed Income, 24, 3, 77-87.
Zimmermann, P. (2021), “The Role of the Leverage Effect in the Price Discovery Process of Credit Markets”, Journal of Economic Dynamics and Control, 122, 104033.
La récente élection législative française envoie un nouveau message sur le mécontentement des citoyens électeurs dans nombre de pays, concernant l’évolution de leur environnement. Presque 60% des Français inscrits sur les listes électorales ont fait le choix… de ne pas choisir (abstentions et votes blancs ou nuls) et près de 40% de ceux qui ont exprimé une préférence partisane l’ont fait en faveur d’organisations (partis ou réunion de partis) de tradition plutôt contestataire (Le Rassemblement National et la Nouvelle Union Populaire, Ecologique et Sociale).
Si on prend une focale courte, trouver les raisons de ce mélange de pessimisme et de mauvaise humeur, confirmé au demeurant par un repli marqué de la confiance des ménages, n’est pas très compliqué.
La nette accélération des prix et la guerre à la frontière de l’Union Européenne, les deux phénomènes n’étant pas indépendants, en sont les raisons évidentes. Ces bouleversements, dont la gravité n’est pas du tout à minorer (nous allons le voir), s’ajoutent et en fait amplifient un mal-être solidement en place depuis déjà longtemps. Sans remonter inutilement loin en arrière, comment ne pas reconnaître que le monde a enregistré au cours des quinze dernières années toute une série d’évènements qui participent, si ce n’est d’une perte de repères, d’une remise en cause de la façon de percevoir l’environnement dans lequel chacun évolue ? Dressons en une liste, sans forcément chercher à être exhaustif :
• la crise financière (2008),
• le balancement entre des Etats-Unis plutôt en retrait des affaires du monde et une Chine jusqu’à maintenant de plus en plus présente (les nouvelles routes de la soie en 2015) et au milieu une Europe qui se cherche (le Brexit en 2016),
• la réorientation de la politique américaine vis-à-vis de la Chine (méfiance et prise de distance à partir de 2017),
• la remise en cause des frontières de ses voisins par la Russie (2008, 2014 et donc et très récemment en février de cette année),
• la fragilisation des Sociétés (des printemps arabes en 2010 – 2011 aux gilets jaunes français en 2018 et à l’assaut sur le Congrès des Etats-Unis en 2021 ; des mouvement Black Lives Matter – 2013 – à la crise des réfugiés – 2015 – et aux attentats de Paris – 2015 –),
• la montée de la question environnementale (de l’accident de Fukushima au Japon en 2011 à une prise de conscience plus entière du réchauffement climatique à partir de 2018, entre autres avec Greta Thunberg),
• une économie qui ne fonctionne pas au bénéfice de tous (les Panama papers en 2016 sur les processus d’évitement de l’impôt), sur fond justement de contraste entre des performances macroéconomiques passables, voire médiocres, et microéconomiques plus étincelantes – cf. PIB, et donc revenus, vs profits des entreprises cotées –),
• une crise épidémique mondiale (la COVID 19) qui pointe la fragilité de chaines de production trop longues et trop complexes (le just in case qui supplanterait le just in time ; avec quelles conséquences économiques ?) et encore plus celle de l’espèce humaine qui aurait abusé de trop de « mère nature »,
• in fine, la question politique et sociale (besoin de protection et partage des richesses) s’impose progressivement dans le débat électoral.
C’est sur ces soubassements déjà fragilisés que les évènements les plus récents (l’inflation et la guerre, pour faire simple) sont ressentis comme des vecteurs possibles de rupture ; un peu comme des catalyseurs éventuels de changements jusqu’alors davantage latents. Cette rupture pourrait être de deux ordres. D’abord et selon une démarche déductive, il y a le risque qu’une sorte de tectonique des plaques, pour reprendre l’expression de Pierre-Olivier Gourinchas, le nouveau Chef-économiste du FMI, se mette en place, « fragmentant le système économique mondial, en blocs distincts, chacun avec sa propre idéologie, son propre système politique, ses propres standards technologiques, ses propres systèmes commerciaux et de paiement et sa propre monnaie de réserve ».
La géographie politique du monde serait profondément transformée, avec la déstabilisation économique qui, au moins dans un premier temps, en découlerait. Ensuite et en fonction d’une approche empirique tirée de l’histoire appliquée (l’Applied History, selon l’expression du monde académique anglo-saxon), il y a ce parallèle qu’il est peut-être tentant de faire entre la situation actuelle et celle ayant prévalu à partir de la seconde moitié des années 70. A l’époque, les ingrédients sont des épisodes de guerre ou de changement de régime au Moyen-Orient et un fort renchérissement des cours du pétrole. La conséquence est double : l’enclenchement d’une spirale inflationniste et un changement de « régulation », à la fois moins interventionniste et keynésienne et plus libérale et « friedmaniènne » : moins d’allant systématique pour l’activisme budgétaire, allègement des réglementations du marché du travail, privatisation d’entreprises publiques et plus grande ouverture aux échanges extérieurs.
Creusons ce deuxième sujet ; au moins essayons. En gardant à l’esprit que, au même titre que corrélation n’est pas raison, parallèle peut être bagatelle ! Par quel cheminement, des causes comparables produiraient certes un changement dans la conduite de l’économie, mais de direction opposée ? N’est-il pas dans l’air du temps de pronostiquer le retour à des politiques économiques plus volontaristes et faisant moins la part belle au « laisser-faire » ? Oui, bien sûr ; mais il faut comprendre que cette aspiration tient plus de la réaction à un cadre général considéré comme dysfonctionnel que de la recherche d’une réponse adaptée à un début d’emballement des prix.
Les opinions publiques (ou ceux qui les influencent) expriment une insatisfaction et considèrent que l’origine du problème à la genèse de celle-ci est à rechercher dans la régulation en cours aujourd’hui. Avec alors la mise en avant d’une attitude qui consiste à plébisciter l’alternative à la logique en cours : adieu Friedman et content de te revoir Keynes !
Il n’empêche que, au-delà de causalités pas toujours bien « ficelées », l’aspiration à un changement d’administration de l’économie demeure. Les maîtres-mots en seraient les suivants : transition énergétique et inclusion. Ce qui signifie : coopération entre pays (oui à la concurrence au sein d’un monde ouvert, mais non à la rivalité stratégique), rapprochement entre les décideurs publics, mais aussi privés, et les différents autres acteurs de la vie économique et sociale (le stakeholding) et retour à une redistribution « normale » des milieux les plus favorisés vers ceux les plus modestes. Pour reprendre les mots de Dani Rodrik, professeur à l’université d’Harvard, « un système économique mondialisé ne peut pas être la fin et les équilibres politiques et sociaux propres à chaque pays, un moyen ; il faut remettre la logique dans le bon sens (revenir en quelque sorte à l’esprit de Bretton Woods) ».
Ainsi, au moins peut-on l’espérer, la « fragmentation du système économique mondial » n’aurait pas lieu et l’inflation serait contenue. Au moins en Occident, l’essentiel des citoyens et des responsables politiques devrait aligner leurs aspirations et leurs efforts dans cette quête. Les entreprises suivraient-elles ? N’ont-elles pas à y perdre, au moins pour les plus grandes d’entre-elles ?
On doit évidemment soulever la difficulté qui peut exister entre la pratique de la mondialisation économique vécue au cours des quelque trente dernières années et les valeurs qui s’imposent maintenant dans la Société. Cela nécessite une adaptation ; mais sans qu’il faille opposer le comportement d’autrefois aux aspirations, très certainement durables, qui sont apparues. En regardant devant (loin devant !), il n’y aura pas de réussite économique dans un monde devenu invivable à cause du climat ou de la politique.
Il est possible ponctuellement de « faire plus d’argent » en optimisant les relations avec les clients, les fournisseurs et les employés ; dans une perspective plus longue, une planète « fonctionnelle » et une Société « apaisée » sont des prérequis qui s’imposent. Peut-être a-t-on trop facilement tendance à opposer frontalement logique de marché aux logiques étatique et sociétale. Sans doute est-il davantage question de positionner au bon endroit le curseur en fonction des changements observés ou pressentis On en est là aujourd’hui et il s’agit bien plus d’évolution que de révolution !
With the global economy in turmoil, energy prices are exploding. A general rising trend in the prices of oil and gas since mid-last year has been compounded in recent weeks by the war in Ukraine and the economic reprisals taken by the West against Russia. These reprisals now include a partial embargo on Russian hydrocarbons. But what does that mean in the short term? And how does the current situation compare with the oil crisis of the 1970s? Let us delve into the matter in this Economic Brief.
The world economy is experiencing shock after shock arising from various sources: the COVID-19 pandemic, supply chain shortages, the war in Ukraine, severe inflationary conditions and stalling growth. However, in this edition of the Economic Brief, we will delve into the real estate sector to consider just how the economy is faring; after all, as the French saying goes, ‘when real estate is doing well, everything is’. 1
Accuracy has been assigned by SPAC Pegasus Entrepreneurs to perform the
financial due diligence in the context of the following operation:
FL Entertainment (composed of Banijay
Group and Betclic Everest Group) is merging with SPAC Pegasus Entrepreneurs,
which has been backed by European investment firm Tikehau Capital and
Financière Agache.
Transaction gives implied pro forma equity value of
€4.1 billion and pro forma enterprise value of €7.2 billion – the largest
business combination by a European-listed SPAC
The Banijay Group is the world’s largest independent content production
company. The Betclic Everest Group operates in the online sports betting and
gaming segment.
This edition of the Economic Brief sees us delve into economic matters at a global level. We will review the latest World Economic Outlook projections prepared by the International Monetary Fund to review the macro impact of the war in Ukraine, and we will move on to consider price dynamics in the three major economic zones: the US, the eurozone and China.
Accuracy a réalisé les travaux de due diligence financière pour FNB, un fonds d’investissement spécialisé dans les PME de l’industrie agro-alimentaire, dans le cadre de l’acquisition des activités de purée de pommes de terre Moussline (Nestlé).
Today, though this statement may apply more to developed countries than to developing countries, the economic landscape appears on the surface more promising. COVID-19 is on the verge of transforming from epidemic into endemic. Economic recovery is considered likely to last, and the delay to growth accumulated during the COVID-19 crisis has mostly been caught up. Last but not least, prices are accelerating.
This last phenomenon is quite spectacular, with a year-on-year change in consumer prices passing in the space of two years (from early 2020 to early 2022) from 1.9% to 7.5% in the United States and from 1.4% to 5.1% in the eurozone. What’s more, this acceleration is proving stronger and lasting longer than the idea we had of the consequences on the price profile of opening up an economy previously hindered by public health measures.
Faced with these dynamics on the dual front of health and the real economy, opinions on the initiatives to be taken by central banks have changed. The capital markets are calling for the rapid normalisation of monetary policies: stopping the increase in the size of balance sheets and then reducing them, as well as returning the reference rates to levels deemed more normal. This, of course, comes with the creation of both upward pressure and distortions in the rate curves, as well as a loss of direction in the equity markets.
At this stage, let’s have a quick look back to see how far we may have to go. During the epidemic crisis, the main Western central banks (the Fed in the US, the ECB in the eurozone, the Bank of Japan and the Bank of England) accepted a remarkable increase in the size of their balance sheets. For these four banks alone, the balance sheet/GDP ratio went from 36% at the beginning of 2020 to 60% at the end of 2021. This is the counterpart to the bonds bought and the liquidity injected in their respective banking systems. At the same time, the reference rates were positioned or maintained as low as possible (based on the economic and financial characteristics of each country or zone): at +0.25% in the US, at -0.50% in the eurozone, at -0.10% in Japan and at +0.10% in the UK. This pair of initiatives served to ensure the most favourable monetary and financial conditions. They ‘supplemented’ the actions taken by the public authorities: often state-backed loans granted to businesses and furlough measures in parallel to significant support to the economy (around 4.5 points of GDP on average for the OECD zone; note, the two types of measure may partly overlap).
Now, let’s try to set out the monetary policy debate. The net rebound of economic growth in 2021, the widely shared feeling that economic activity will continue following an upward trend, and price developments that are struggling to get back into line all contribute to a situation that justifies the beginning of monetary policy normalisation. It goes without saying that the timing and the rhythm of this normalisation depend on conditions specific to each geography.
HOWEVER, WE MUST BE AWARE OF THE SINGULAR NATURE OF THE CURRENT SITUATION.
The current inflationary dynamics are not primarily the reflection of excessively strong demand stumbling over a supply side already at full capacity.
More so, they reflect – and quite considerably – production and distribution apparatuses that cannot operate at an optimal rhythm because of the disorganisation caused by the epidemic and sometimes by the effects brought about by public policies. The return to normal – and if possible quickly – is a necessity, unless we are willing to accept lasting losses of supply capacity. With this in mind, we must be careful not to speed down the road to monetary neutrality; otherwise, we risk a loss of momentum in economic growth and a sharp decline in financial markets, both of which would lead us away from the desired goal.
Another point must be mentioned, even if it is more classic in nature: the acceleration of consumer prices is not without incident on households. It gnaws away at their purchasing power and acts negatively on their confidence, both things that serve to slow down private consumption and therefore economic activity.
THIS IS ANOTHER ELEMENT SUPPORTING THE GRADUAL NORMALISATION OF MONETARY POLICY.
How do the two ‘major’ central banks (the Fed in the US and the ECB in the eurozone) go about charting their course on this path, marked out on the one hand by the impatience of the capital markets and on the other by the need to take account of the singularity of the moment and the dexterity that this singularity requires when conducting monetary policy?
All we can do is observe a certain ‘crab walk’ by the Fed and the ECB. Let’s explain and start with the US central bank.
The key phrase of the communiqué at the end of the recent monetary policy committee of 26 January is without doubt the following: ‘With inflation well above 2 percent and a strong labor market, the Committee expects it will soon be appropriate to raise the target range for the federal funds rate.’ Not surprisingly, the reference rate was raised by 25 percentage points on 16 March, and as there is no forward guidance, the rhythm of the monetary normalisation will be data dependent (based on the image of the economy drawn by the most recently published economic indicators). At first, the focus will be on the price profile; then, the importance of the activity profile will grow.
The market, with its perception of growth and inflation, will be quick to anticipate a rapid pace of policy rate increases. The Fed, having approved the start of the movement, is trying to control its tempo. Not the easiest of tasks!
Let’s move on to the ECB. The market retained two things from the meeting of the Council of Governors on 3 February: risks regarding future inflation developments are on the rise and the possibility of a policy rate increase as early as this year cannot be ruled out.
Of course, the analysis put forward at the time was more balanced, and since then, Christine Lagarde and certain other members of the Council, such as François Villeroy de Galhau, have been working to moderate market expectations that are doubtlessly considered excessive.
We can see it clearly. It will all be a question of timing and good pacing in this incipient period of normalisation. In medio stat virtus1, as Aristotle reminds us. But how establishing it can be difficult!
____________
1Virtue lies in a just middle.
IMPACT OF THE RUSSIAN INVASION OF UKRAINE: NECESSARY DOWNWARD REVISION OF ECONOMIC ASSESSMENT
• The world outside Russia, especially Europe, will not get through the crisis unscathed. The continued acceleration of prices and the fall in confidence are the principal reasons for this. Indeed, the price of crude oil has increased by over 30% (+35 dollars per barrel) since the beginning of military operations, and the price of ‘European’ gas has almost doubled. In the same way, it is impossible to extrapolate the rebound in the PMI indices of many countries in February; they are practically ancient history. Growth will slow down and inflation will become more intense, with the United States suffering less than the eurozone.
• Vigilance (caution) may need to be even greater. This new shock (the scale of which remains unknown) is rattling an economic system that is still in recovery: the epidemic is being followed by a difficult rebalancing of supply and demand, creating an unusual upward trend in prices compared with the past few decades. Is the economic system’s resistance weaker as a result?
• In these conditions, monetary normalisation will be more gradual than anticipated. Central banks should monitor the increase in energy (and also food) prices and focus more on price dynamics excluding these two components – what we call the ‘core’. The most likely assumption is that this core will experience a slower tempo, above all because of less well-orientated demand.
Philippe Raimbourg Director of the Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Affiliate professor at ESCP Business School
If since Irving Fisher we know that the value of an asset equals the discounted value of the cash flows that it can generate, we also know that the discounting process significantly erodes the value of long-term cash flows and reduces the attractiveness of long-term projects.
THIS RESULT IS THE CONSEQUENCE OF A DUAL PHENOMENON:
• the passage of time, which automatically whittles down the present value of all remote cash flows; • the shape of the yield-to-maturity curve, which generally leads to the use of higher discount rates the further in the future the cash flows are due; indeed, we usually observe that the yield curve increases with the maturity of the cash flow considered.
THE DISCOUNTING PROCESS SIGNIFICANTLY ERODES THE VALUE OF LONG-TERM CASH FLOWS
For this reason, the majority of companies generally invest in short-term and medium-term projects and leave long-term projects to state bodies or bodies close to public authorities.
We will try to explain here the potentially inevitable nature of this observation and under what conditions long-term rates can be less penalising than short-term ones. This will require us to explain the concept of the ‘equilibrium interest rate’ as a first step.
THE EQUILIBRIUM INTEREST RATE
We are only discussing the risk-free rate here, before taking into account any risk premium. In a context of maximising the inter-temporal well-being of economic agents, the equilibrium interest rate is the rate that enables an agent to choose between an investment (i.e. a diminution of his or her immediate well-being resulting from the reduction of his or her consumption at moment 0 in favour of savings authorising the investment) and a future consumption, the fruit of the investment made.
WE CAN EASILY SHOW THAT TWO COMPONENTS DETERMINE THE EQUILIBRIUM INTEREST RATE:
• economic agents’ rate of preference for the present; • a potential wealth effect that is positive when consumption growth is expected.
The rate of preference for the present (or the impatience rate) is an individual parameter whose value can vary considerably from one individual to another. However, from a macroeconomic point of view, this rate is situated in an intergenerational perspective, which leads us to believe that the value of this parameter should be close to zero. Indeed, no argument can justify prioritising one generation over another.
The wealth effect results from economic growth, enabling economic agents to increase their consumption over time. The prospect of increased consumption encourages economic agents to favour the present and to use a discounting factor that is ever higher the further into the future they look.
In parallel to this potential wealth effect, we also understand that the equilibrium interest rate depends on the characteristics and choices of the agents. They may have a strong preference for spreading their consumption over time, or on the contrary, they may not be averse to possible inequality in the inter-temporal distribution of their consumption.
Technically, once the utility function of the consumers is known (or assumed), it is the degree of curvature of this function that will provide us with the consumers’ R coefficient of aversion to the risk of inter-temporal imbalance in their consumption.
If this coefficient equals 1, this means that the consumer will be ready to reduce his or her consumption by one unit at time 0 in view of benefitting from one additional unit of consumption at time 1. A coefficient of 2 would mean that the consumer is ready to reduce his or her consumption by two units at time 0. It is reasonable to think that R lies somewhere between 1 and 2.
From this perspective, in 1928 Ramsey proposed a simple and illuminating formula for the equilibrium interest rate. Using a power function to measure the consumer’s perceived utility, he showed that the wealth effect in the formation of the equilibrium interest rate was equal to the product of the nominal period growth rate of the economy and the consumer coef ficient of aversion R. This leads to the following relationship:
r = δ + gR
where r is the equilibrium interest rate, δ the impatience rate, g the nominal period growth rate of the economy and R the consumer’s coefficient of aversion to the risk of inter-temporal imbalance in his or her consumption.
Assuming a very low value for δ and a value close to the unit for R, we see that the nominal growth rate of the economy constitutes a reference value for the equilibrium interest rate. This equilibrium interest rate, as explained, is the risk-free rate that must be used to value risk-free assets; if we consider risky assets, we must of course add a risk premium.
In the current context, Ramsey’s relationship makes it possible to appreciate the extent of the effects of unconventional policies put in place by central banks, which have given rise to a risk-free rate close to 0% in the financial markets.
THE LONG-TERM DISCOUNT RATE
Now that we have established the notion of the equilibrium interest rate, we can move on to the question of the structure of discount rates based on their term.
We have just seen that the discount rate is determined by the impatience rate of consumers, their coefficient of aversion R and expectations for the growth rate of the economy. If we consider the impatience rate to be negligible and by assuming that the coefficient of aversion remains unchanged over time, this gives a very important role to the economic outlook: the discount rate based on maturity will mainly reflect the expectations of economic agents in terms of the future growth rate.
Therefore, if we expect economic growth at a constant rate g, the yield-to-maturity curve will be flat. If we expect growth acceleration (growth of the growth rate), the rate structure will grow with the maturity. However, if we expect growth to slow down, the structure of the rates will decrease.
We thus perceive the informative function of the yield-to-maturity curve, which makes it possible to inform the observer of the expectations of financial market operators with regard to expectations of the growth rate of the economy.
WE ALSO SEE THAT THE PENALISATION OF THE LONG-TERM CASH FLOWS BY THE DISCOUNTING PROCESS IS NOT INEVITABLE.
When the economic outlook is trending downwards, the rate structure should be decreasing. But we must not necessarily deduce that this form of the yield curve is synonymous with disaster. It can very easily correspond to a return to normal after a period of over-excitation. For example, coming back to the present, if the growth rate of the economy is particularly high because of catch-up effects, marking a significant gap compared with the sustainable growth rate in the long term, the rate structure should be decreasing and the short-term discount rate higher than the discount rate applicable for a longer time frame.
It is only the action of the central banks, which is particularly noticeable on short maturities, that is preventing such a statistical observation today.
‘When “the practice of one’s profession” cannot be directly linked with the supreme spiritual values of civilisation – and when, conversely, it cannot be experienced subjectively as a simple economic constraint – the individual generally abandons giving it any meaning ’,wrote Max Weber in 1905 at the end of The Protestant Ethic and the Spirit of Capitalism.1 But is this not what we can observe a century later? A world where the value of work seems no longer evident, as if it were ‘endangered’ 2…
Big Quit in the USA, the hashtags #quitmyjob, #nodreamjob or #no_labor, communities with millions of followers like the group Antiwork on the social network Reddit: the signals of a form of revolt, or even disgust with work, are multiplying. This is not just a change to work (as might be suggested by remote working or the end of salaried employment as the only employment model), but a much more profound questioning movement – like a refusal to work. This is a far cry from Chaplin’s claim that the model of work is the model of life itself: ‘To work is to live – and I love living!’3
In Max Weber’s view, work established itself as a structuring value of society when the Reformation was definitively established in Europe and triumphantly exported to the United States. But the sociologist insisted on one thing: the success of this passion for work can only be explained by the spiritual interest that was linked to it. It is because a life dedicated to labour was the most certain sign of being one of God’s chosen that men gave themselves to it with such zeal. When the ethical value of work was no longer religious, it became social, serving as the index of integration in the community and the recognition of individual accomplishment.
And today? What is the spiritual value of work tied to when the paradigm of (over)production and limitless growth is wobbling, and when ‘helicopter money’ has been raining down for long months? Younger generations, who are challenging the evidence of this work value most vehemently, must lead us to elucidate the meaning of work for the 21st century; studies showing that young people are no longer willing to work at any price are multiplying.
The philosopher Simone Weil, who had worked in a factory, believed in a ‘civilisation of work’, in which work would become ‘the highest value, through its relationship with man who does it [and not] through its relationship with what is produced.’ 4 Make of man the measure of work: that is perhaps where we must start so that tomorrow we can link an ethical aspect to work again – the only one to justify its value. ‘The contemporary form of true greatness lies in a civilization founded on the spirituality of work,’ 5 wrote Weil.
____________
1Max Weber, L’Éthique protestante et l’esprit du capitalisme [The Protestant Ethic and the Spirit of Capitalism], Flammarion “Champs Classiques”, 2017. Quote translated from the French: « Dès lors que « l’exercice du métier » ne peut pas être directement mis en relation avec les valeurs spirituelles suprêmes de la civilisation – et que, à l’inverse, il ne peut pas être éprouvé subjectivement comme une simple contrainte économique –, l’individu renonce généralement à lui donner un sens. »
2Dominique Méda, Le Travail ; Une Valeur en voie de disparition ? [Work; an endangered value?], Flammarion “Champs-Essais”, 2010.
3David Robinson Chaplin: His Life and Art, 2013, Penguin Biography.
4David Robinson Chaplin: His Life and Art, 2013, PenguTranslated from the French : « la valeur la plus haute, par son rapport avec l’homme qui l’exécute [et non] par son rapport avec ce qu’il produit. »in Biography.
5Simone Weil, L’Enracinement [The need for Roots], Gallimard, 1949.
Retail banking is a sector that is set to see its rate of transformation accelerate in the next few years. The past 10 years have seen in particular distribution methods evolve towards more digitalisation, without calling into question the physical model, however. In the 10 years to come, in a world where technology will gradually make it possible to serve major needs via platforms, supply, distribution and technological solutions must all evolve.
1. THE TRANSFORMATIONS AT WORK
It is not worth spending too much time explaining the context in which retail banking has been developing for several years now; suffice it to say that there are three principal challenges: ultra-low rates, regulation that has toughened considerably since 2008 and the arrival of new players.
Beyond this context, the sector is experiencing major technological changes.The first such change regards data. Open banking designates an underlying trend that is pushing banking IT systems to open up and share client data (identity, transaction history, etc.). A new open banking ecosystem is gradually taking shape, in which multiple actors (banks, payment bodies, technology publishers, etc.) share data and incorporate each other’s services in their own interfaces, making it possible to provide new services and to create new tools.
Another major development is banking as a service (BaaS). Historically, retail banking was a fixed-cost industry. The opening up of data, the swing to the cloud and the API-sation of banking systems have made closed and vertically integrated production models redundant. Each of the production building blocks of financial services can now be proposed ‘as a service’. This transformation leads to a swing from a fixed-cost economic model to a variable-cost basis. By outsourcing their banking system, digital challengers can launch their businesses with lower costs and shorter time frames.
Finally, the sector cannot entirely avoid the phenomenon of super-apps, which are gradually changing uses by aggregating services for highly diverging needs. This change may slowly make the way clients are served obsolete and probably requires the development of what we might call ‘embedded finance’.
2. THE FUTURE OF TRADITIONAL PLAYERS
Traditional banks have generally resisted the prevailing winds mentioned above. Over the past 10 years, their revenues have not collapsed, though their growth has proved to be somewhat moderate.
Traditional players still have a certain number of strengths. First, historical banks have complete product ranges, which of course cover daily banking (account, card, packages, etc.), but also the balance sheet side of things, with credit and savings products. Classifying the IT systems of major banks among their strengths may seem rather unconventional. Nevertheless, these large systems, though not agile, are often highly robust, and they have made it possible to shrink the technological gap with neobanks. Finally, traditional players are financially powerful and capable of investing to accelerate a technological plan when necessary.
Naturally, these players have some weaknesses, the main one being the customer experience. However, this point does not relate to the gap with neobanks, which has most often been filled; it relates to the gap with purely technological players for example. When considering the trend of convergence of needs, this weakness may represent something of a handicap for the financial sector as a whole. Another weakness relates to these players’ low margin for manoeuvre in terms of the reduction of headcount or number of agencies, if the implementation of a massive cost-reduction programme proved necessary.
These players are deploying or will have to deploy different types of strategy. First, there are the financial actions, be they concentrating or restructuring. Concentration aims to dispose of all activities away from the bank’s main markets in order to be as large as possible in domestic markets. Restructuring, in Spain in particular but also in France with the business combination between SG and CDN, aims to reduce the break-even point.
Banks should also take other actions. In terms of IT, there will come a time, in the not too distant future, where the lack of agility of historical systems will no longer be compensated by their robustness. Developments will accelerate and the speed of developments will become key.
Finally, traditional players will have to rethink their distribution models in the light of digital technology and the convergence of the service of major types of need, which will enable embedded finance. The idea of embedded finance is to incorporate the subscription of financial products directly into the customer’s consumption or purchase path. The financial service therefore becomes available contextually and digitally.
3. THE FUTURE OF NEOBANKS
Neobanks have developed in successive waves for more than 20 years, and the last wave saw the creation of players developing rapidly and acquiring millions of clients. They are capable of raising colossal funds on the promise of a huge movement of clients towards their model.
The primary strength of neobanks is their technology. Having started from scratch in terms of IT, they have been able to rely on BaaS to develop exactly what they need, all with a good level of customer service.
Moreover, these players generally target precise segments; as a result, they have a perfectly adapted offer and customer path, something that is more difficult for generalist banks.
Their weaknesses are often the corollary of their strengths.
Yes, their limited offer makes it possible to better fulfil certain specific needs, but in a world where technology is enabling the emergence of multi-service platforms, addressing only some of a customer’s financial services needs is not necessarily a good idea. It places neobanks on the periphery of a business line that itself is not best placed in the trend of convergence of needs. But if neobank offers are limited, it is not necessarily by choice.
Developing credit and savings products, areas most often lacking in neobanks, would need them to change size in terms of controls and capital consumption in particular. Finally, the consequence of this limited offer is their inability to capture the most profitable retail banking customers en masse: the customer with multiple accounts. This explains their low revenues, which plateau at €20 per client.
This does not necessarily condemn the future of the neobank. For a start, it is necessary to distinguish between countries based on the availability of banking services. In countries with a low level of banking accessibility, neobanks have an open road before them, like Nubank in Brazil (40 million customers). In countries with a high level of banking accessibility, it is a different story. The low level of revenues and the trend of convergence of major needs will force neobanks to make choices: they can urgently extend their offer to balance sheet products, like Revolut appears to be doing; they can decide to skip the balance sheet step and widen their offer directly to other areas, like Tinkoff is doing in Russia; or they can let themselves be acquired by a traditional player that has an interest in them from a technological perspective – but they should not wait too long to do so.
The retail-banking sector is more than ever under the influence of major transformations. These may be internally generated, like those that touch on data and BaaS, or externally generated, like the development of platforms serving major needs, initially driven by consumer desire for simplification. In this context, traditional players must address two major topics: embedded finance, on the one hand, and potentially the swing towards decidedly more agile systems to stay competitive, on the other. As for neobanks, their offer must be extended to cover balance sheet products urgently, at the risk of losing some agility, or to cover other needs.
But the finance sector as a whole should probably seek to simplify the consumption of its services considerably, faced as it is with non-financial players that have already undertaken this transformation.
Founded in 2018 in Saint Malo, H2X-Ecosystems provides companies and regional authorities with the opportunity to create complete virtuous ecosystems marrying energy production and decarbonised mobility. These ecosystems enable both the production and the consumpt ion of hydrogen on-site. They are co-built with and for local actors to make the most of their regional resources in order to create added value, whilst maintaining it at the local level. In this way, the ecosystems participate in the development of these rural, periurban or urban areas.
Renewable and low-carbon hydrogen is produced from water electrolysis using renewable energy, which has recently become one of the major levers for decarbonisation. H2X-Ecosystems links this production with typical consumers (buses, refuse collectors, etc.) but also and especially with light mobility and delivery services: self-service cars and last mile delivery. Indeed, the company has made available a hybrid car operating on both solar power and hydrogen, thanks to which on-grid recharge stations are no longer necessary. All this comes without noise pollution or greenhouse gases (CO2, NOx, etc.).
More generally, H2X-Ecosystems is present throughout the hydrogen value chain, from production to storage to consumption: electrolyser, high power electro-hydrogen unit, power pack (fuel cells and removable tanks) able to be incorporated in light mobility solutions.
H2X-Ecosystems has signed a partnership agreement with Enedis Bretagne for the deployment of its high-power electro-hydrogen unit designed to provide a temporary power source to the grid during construction work or in the event of an incident. This unit makes it possible to reduce Enedis’s CO2 emissions and noise pollution by replacing its fossil fuel units with this technology.
In addition, during a period of high pressure on energy prices, the value offer put forward by H2X-Ecosystems enables a move towards control of energy expenditure and energy autonomy for industrial sites by relying in particular on this electro-hydrogen generator combined with other complementary systems (renewable energies, on-site hydrogen production, etc.).
In his presentation of the France 2030 plan, French President Emmanuel Macron confirmed the importance of this sector in the future: ‘We are going to invest almost 2 billion euros to develop green hydrogen. This is a battle that we will lead for ecology, for jobs, and for the sovereignty of our country.’
Relying in particular on nuclear power to perform highly decarbonised electrolysis, France has a leading role to play. H2X-Ecosystems is participating to the full by establishing its first production tools in France, whilst reconciling its development with a virtuous ecological approach that will generate added value, energy independence and profitability for companies and regions.
After being weakened by various events and decisions that shed an unfavourable light on it (Fukushima, Flamanville, Fessenheim), the nuclear industry is now enjoying something of a resurgence.
The French president’s recent announcement of a programme to build six EPR2 reactors shows his choice to maintain a base of decarbonised electricity production using nuclear energy.
Though it is a subject of much debate, this decision is born of cold pragmatism: despite their demonstrated large-scale deployment, renewable energies remain subject to the whims of the weather. Alone they will not be able to substitute dispatchable power generation facilities, when considering the ambition behind commitments to reduce greenhouse gas emissions by 2050.
Faced with the electrification of the economy, the decision to maintain nuclear power in the French energy mix alongside renewable energies is not so much an option as a necessity. The guarantor of balance in the French network, RTE, also recognises this: prospective scenarios with no renewal of the nuclear base depend, in terms of supply security, on significant technological and societal advances – a high-stakes gamble to say the least. Beyond these aspects, nuclear power also constitutes an obvious vector of energy independence for Europeans. Current affairs cruelly remind us of this, and the situation could almost have led to a change in the German position, if we look at the latest declarations of their government.
In France, initial estimations put construction costs at €52bn, but financing mechanisms are yet to be defined. The only certainty is that state backing will be essential to guarantee a competitive final price of electricity, given the scale of the investments and the risks weighing on the project. Ultimately, the financial engineering for the project will need to be imaginative in order to align the interests of the state, EDF and the consumers.
For our fourth edition of the Accuracy Talks Straight, René Pigot discusses about the nuclear industry, before letting Romain Proglio introduce us to H2X-Ecosystems, a start-up that enable both the production and the consumpt ion of hydrogen on-site. We then analyse the development of the retail baking with David Chollet, Nicolas Darbo and Amaury Pouradier Duteil. Sophie Chassat, Philosopher and partner at Wemean, explores the value of work. And finally, we look closer at the long-term discount rate with Philippe Raimbourg, Director of the Ecole de Management de la Sorbonne and Affiliate professor at ESCP Business School, as well as the improvement of the economic panorama with Hervé Goulletquer, our senior economic adviser.
After being weakened by various events and decisions that shed an unfavourable light on it (Fukushima, Flamanville, Fessenheim), the nuclear industry is now enjoying something of a resurgence.
The French president’s recent announcement of a programme to build six EPR2 reactors shows his choice to maintain a base of decarbonised electricity production using nuclear energy.
Though it is a subject of much debate, this decision is born of cold pragmatism: despite their demonstrated large-scale deployment, renewable energies remain subject to the whims of the weather. Alone they will not be able to substitute dispatchable power generation facilities, when considering the ambition behind commitments to reduce greenhouse gas emissions by 2050.
Faced with the electrification of the economy, the decision to maintain nuclear power in the French energy mix alongside renewable energies is not so much an option as a necessity. The guarantor of balance in the French network, RTE, also recognises this: prospective scenarios with no renewal of the nuclear base depend, in terms of supply security, on significant technological and societal advances – a high-stakes gamble to say the least. Beyond these aspects, nuclear power also constitutes an obvious vector of energy independence for Europeans. Current affairs cruelly remind us of this, and the situation could almost have led to a change in the German position, if we look at the latest declarations of their government.
In France, initial estimations put construction costs at €52bn, but financing mechanisms are yet to be defined. The only certainty is that state backing will be essential to guarantee a competitive final price of electricity, given the scale of the investments and the risks weighing on the project. Ultimately, the financial engineering for the project will need to be imaginative in order to align the interests of the state, EDF and the consumers.
Founded in 2018 in Saint Malo, H2X-Ecosystems provides companies and regional authorities with the opportunity to create complete virtuous ecosystems marrying energy production and decarbonised mobility. These ecosystems enable both the production and the consumpt ion of hydrogen on-site. They are co-built with and for local actors to make the most of their regional resources in order to create added value, whilst maintaining it at the local level. In this way, the ecosystems participate in the development of these rural, periurban or urban areas.
Renewable and low-carbon hydrogen is produced from water electrolysis using renewable energy, which has recently become one of the major levers for decarbonisation. H2X-Ecosystems links this production with typical consumers (buses, refuse collectors, etc.) but also and especially with light mobility and delivery services: self-service cars and last mile delivery. Indeed, the company has made available a hybrid car operating on both solar power and hydrogen, thanks to which on-grid recharge stations are no longer necessary. All this comes without noise pollution or greenhouse gases (CO2, NOx, etc.).
More generally, H2X-Ecosystems is present throughout the hydrogen value chain, from production to storage to consumption: electrolyser, high power electro-hydrogen unit, power pack (fuel cells and removable tanks) able to be incorporated in light mobility solutions.
H2X-Ecosystems has signed a partnership agreement with Enedis Bretagne for the deployment of its high-power electro-hydrogen unit designed to provide a temporary power source to the grid during construction work or in the event of an incident. This unit makes it possible to reduce Enedis’s CO2 emissions and noise pollution by replacing its fossil fuel units with this technology.
In addition, during a period of high pressure on energy prices, the value offer put forward by H2X-Ecosystems enables a move towards control of energy expenditure and energy autonomy for industrial sites by relying in particular on this electro-hydrogen generator combined with other complementary systems (renewable energies, on-site hydrogen production, etc.).
In his presentation of the France 2030 plan, French President Emmanuel Macron confirmed the importance of this sector in the future: ‘We are going to invest almost 2 billion euros to develop green hydrogen. This is a battle that we will lead for ecology, for jobs, and for the sovereignty of our country.’
Relying in particular on nuclear power to perform highly decarbonised electrolysis, France has a leading role to play. H2X-Ecosystems is participating to the full by establishing its first production tools in France, whilst reconciling its development with a virtuous ecological approach that will generate added value, energy independence and profitability for companies and regions.
Retail banking, the old guard versus the new
David Chollet Partner, Accuracy
Nicolas Darbo Partner, Accuracy
Amaury Pouradier Duteil Partner, Accuracy
Retail banking is a sector that is set to see its rate of transformation accelerate in the next few years. The past 10 years have seen in particular distribution methods evolve towards more digitalisation, without calling into question the physical model, however. In the 10 years to come, in a world where technology will gradually make it possible to serve major needs via platforms, supply, distribution and technological solutions must all evolve.
1. THE TRANSFORMATIONS AT WORK
It is not worth spending too much time explaining the context in which retail banking has been developing for several years now; suffice it to say that there are three principal challenges: ultra-low rates, regulation that has toughened considerably since 2008 and the arrival of new players.
Beyond this context, the sector is experiencing major technological changes.The first such change regards data. Open banking designates an underlying trend that is pushing banking IT systems to open up and share client data (identity, transaction history, etc.). A new open banking ecosystem is gradually taking shape, in which multiple actors (banks, payment bodies, technology publishers, etc.) share data and incorporate each other’s services in their own interfaces, making it possible to provide new services and to create new tools.
Another major development is banking as a service (BaaS). Historically, retail banking was a fixed-cost industry. The opening up of data, the swing to the cloud and the API-sation of banking systems have made closed and vertically integrated production models redundant. Each of the production building blocks of financial services can now be proposed ‘as a service’. This transformation leads to a swing from a fixed-cost economic model to a variable-cost basis. By outsourcing their banking system, digital challengers can launch their businesses with lower costs and shorter time frames.
Finally, the sector cannot entirely avoid the phenomenon of super-apps, which are gradually changing uses by aggregating services for highly diverging needs. This change may slowly make the way clients are served obsolete and probably requires the development of what we might call ‘embedded finance’.
2. THE FUTURE OF TRADITIONAL PLAYERS
Traditional banks have generally resisted the prevailing winds mentioned above. Over the past 10 years, their revenues have not collapsed, though their growth has proved to be somewhat moderate.
Traditional players still have a certain number of strengths. First, historical banks have complete product ranges, which of course cover daily banking (account, card, packages, etc.), but also the balance sheet side of things, with credit and savings products. Classifying the IT systems of major banks among their strengths may seem rather unconventional. Nevertheless, these large systems, though not agile, are often highly robust, and they have made it possible to shrink the technological gap with neobanks. Finally, traditional players are financially powerful and capable of investing to accelerate a technological plan when necessary.
Naturally, these players have some weaknesses, the main one being the customer experience. However, this point does not relate to the gap with neobanks, which has most often been filled; it relates to the gap with purely technological players for example. When considering the trend of convergence of needs, this weakness may represent something of a handicap for the financial sector as a whole. Another weakness relates to these players’ low margin for manoeuvre in terms of the reduction of headcount or number of agencies, if the implementation of a massive cost-reduction programme proved necessary.
These players are deploying or will have to deploy different types of strategy. First, there are the financial actions, be they concentrating or restructuring. Concentration aims to dispose of all activities away from the bank’s main markets in order to be as large as possible in domestic markets. Restructuring, in Spain in particular but also in France with the business combination between SG and CDN, aims to reduce the break-even point.
Banks should also take other actions. In terms of IT, there will come a time, in the not too distant future, where the lack of agility of historical systems will no longer be compensated by their robustness. Developments will accelerate and the speed of developments will become key.
Finally, traditional players will have to rethink their distribution models in the light of digital technology and the convergence of the service of major types of need, which will enable embedded finance. The idea of embedded finance is to incorporate the subscription of financial products directly into the customer’s consumption or purchase path. The financial service therefore becomes available contextually and digitally.
3. THE FUTURE OF NEOBANKS
Neobanks have developed in successive waves for more than 20 years, and the last wave saw the creation of players developing rapidly and acquiring millions of clients. They are capable of raising colossal funds on the promise of a huge movement of clients towards their model.
The primary strength of neobanks is their technology. Having started from scratch in terms of IT, they have been able to rely on BaaS to develop exactly what they need, all with a good level of customer service.
Moreover, these players generally target precise segments; as a result, they have a perfectly adapted offer and customer path, something that is more difficult for generalist banks.
Their weaknesses are often the corollary of their strengths.
Yes, their limited offer makes it possible to better fulfil certain specific needs, but in a world where technology is enabling the emergence of multi-service platforms, addressing only some of a customer’s financial services needs is not necessarily a good idea. It places neobanks on the periphery of a business line that itself is not best placed in the trend of convergence of needs. But if neobank offers are limited, it is not necessarily by choice.
Developing credit and savings products, areas most often lacking in neobanks, would need them to change size in terms of controls and capital consumption in particular. Finally, the consequence of this limited offer is their inability to capture the most profitable retail banking customers en masse: the customer with multiple accounts. This explains their low revenues, which plateau at €20 per client.
This does not necessarily condemn the future of the neobank. For a start, it is necessary to distinguish between countries based on the availability of banking services. In countries with a low level of banking accessibility, neobanks have an open road before them, like Nubank in Brazil (40 million customers). In countries with a high level of banking accessibility, it is a different story. The low level of revenues and the trend of convergence of major needs will force neobanks to make choices: they can urgently extend their offer to balance sheet products, like Revolut appears to be doing; they can decide to skip the balance sheet step and widen their offer directly to other areas, like Tinkoff is doing in Russia; or they can let themselves be acquired by a traditional player that has an interest in them from a technological perspective – but they should not wait too long to do so.
The retail-banking sector is more than ever under the influence of major transformations. These may be internally generated, like those that touch on data and BaaS, or externally generated, like the development of platforms serving major needs, initially driven by consumer desire for simplification. In this context, traditional players must address two major topics: embedded finance, on the one hand, and potentially the swing towards decidedly more agile systems to stay competitive, on the other. As for neobanks, their offer must be extended to cover balance sheet products urgently, at the risk of losing some agility, or to cover other needs.
But the finance sector as a whole should probably seek to simplify the consumption of its services considerably, faced as it is with non-financial players that have already undertaken this transformation.
Does the value of work still mean something
Sophie Chassat Philosopher, Partner at Wemean
‘When “the practice of one’s profession” cannot be directly linked with the supreme spiritual values of civilisation – and when, conversely, it cannot be experienced subjectively as a simple economic constraint – the individual generally abandons giving it any meaning ’,wrote Max Weber in 1905 at the end of The Protestant Ethic and the Spirit of Capitalism.1 But is this not what we can observe a century later? A world where the value of work seems no longer evident, as if it were ‘endangered’ 2…
Big Quit in the USA, the hashtags #quitmyjob, #nodreamjob or #no_labor, communities with millions of followers like the group Antiwork on the social network Reddit: the signals of a form of revolt, or even disgust with work, are multiplying. This is not just a change to work (as might be suggested by remote working or the end of salaried employment as the only employment model), but a much more profound questioning movement – like a refusal to work. This is a far cry from Chaplin’s claim that the model of work is the model of life itself: ‘To work is to live – and I love living!’3
In Max Weber’s view, work established itself as a structuring value of society when the Reformation was definitively established in Europe and triumphantly exported to the United States. But the sociologist insisted on one thing: the success of this passion for work can only be explained by the spiritual interest that was linked to it. It is because a life dedicated to labour was the most certain sign of being one of God’s chosen that men gave themselves to it with such zeal. When the ethical value of work was no longer religious, it became social, serving as the index of integration in the community and the recognition of individual accomplishment.
And today? What is the spiritual value of work tied to when the paradigm of (over)production and limitless growth is wobbling, and when ‘helicopter money’ has been raining down for long months? Younger generations, who are challenging the evidence of this work value most vehemently, must lead us to elucidate the meaning of work for the 21st century; studies showing that young people are no longer willing to work at any price are multiplying.
The philosopher Simone Weil, who had worked in a factory, believed in a ‘civilisation of work’, in which work would become ‘the highest value, through its relationship with man who does it [and not] through its relationship with what is produced.’ 4 Make of man the measure of work: that is perhaps where we must start so that tomorrow we can link an ethical aspect to work again – the only one to justify its value. ‘The contemporary form of true greatness lies in a civilization founded on the spirituality of work,’ 5 wrote Weil.
____________
1Max Weber, L’Éthique protestante et l’esprit du capitalisme [The Protestant Ethic and the Spirit of Capitalism], Flammarion “Champs Classiques”, 2017. Quote translated from the French: « Dès lors que « l’exercice du métier » ne peut pas être directement mis en relation avec les valeurs spirituelles suprêmes de la civilisation – et que, à l’inverse, il ne peut pas être éprouvé subjectivement comme une simple contrainte économique –, l’individu renonce généralement à lui donner un sens. »
2Dominique Méda, Le Travail ; Une Valeur en voie de disparition ? [Work; an endangered value?], Flammarion “Champs-Essais”, 2010.
3David Robinson Chaplin: His Life and Art, 2013, Penguin Biography.
4David Robinson Chaplin: His Life and Art, 2013, PenguTranslated from the French : « la valeur la plus haute, par son rapport avec l’homme qui l’exécute [et non] par son rapport avec ce qu’il produit. »in Biography.
5Simone Weil, L’Enracinement [The need for Roots], Gallimard, 1949.
The long-term discount rate
Philippe Raimbourg Director of the Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Affiliate professor at ESCP Business School
If since Irving Fisher we know that the value of an asset equals the discounted value of the cash flows that it can generate, we also know that the discounting process significantly erodes the value of long-term cash flows and reduces the attractiveness of long-term projects.
THIS RESULT IS THE CONSEQUENCE OF A DUAL PHENOMENON:
• the passage of time, which automatically whittles down the present value of all remote cash flows; • the shape of the yield-to-maturity curve, which generally leads to the use of higher discount rates the further in the future the cash flows are due; indeed, we usually observe that the yield curve increases with the maturity of the cash flow considered.
THE DISCOUNTING PROCESS SIGNIFICANTLY ERODES THE VALUE OF LONG-TERM CASH FLOWS
For this reason, the majority of companies generally invest in short-term and medium-term projects and leave long-term projects to state bodies or bodies close to public authorities.
We will try to explain here the potentially inevitable nature of this observation and under what conditions long-term rates can be less penalising than short-term ones. This will require us to explain the concept of the ‘equilibrium interest rate’ as a first step.
THE EQUILIBRIUM INTEREST RATE
We are only discussing the risk-free rate here, before taking into account any risk premium. In a context of maximising the inter-temporal well-being of economic agents, the equilibrium interest rate is the rate that enables an agent to choose between an investment (i.e. a diminution of his or her immediate well-being resulting from the reduction of his or her consumption at moment 0 in favour of savings authorising the investment) and a future consumption, the fruit of the investment made.
WE CAN EASILY SHOW THAT TWO COMPONENTS DETERMINE THE EQUILIBRIUM INTEREST RATE:
• economic agents’ rate of preference for the present; • a potential wealth effect that is positive when consumption growth is expected.
The rate of preference for the present (or the impatience rate) is an individual parameter whose value can vary considerably from one individual to another. However, from a macroeconomic point of view, this rate is situated in an intergenerational perspective, which leads us to believe that the value of this parameter should be close to zero. Indeed, no argument can justify prioritising one generation over another.
The wealth effect results from economic growth, enabling economic agents to increase their consumption over time. The prospect of increased consumption encourages economic agents to favour the present and to use a discounting factor that is ever higher the further into the future they look.
In parallel to this potential wealth effect, we also understand that the equilibrium interest rate depends on the characteristics and choices of the agents. They may have a strong preference for spreading their consumption over time, or on the contrary, they may not be averse to possible inequality in the inter-temporal distribution of their consumption.
Technically, once the utility function of the consumers is known (or assumed), it is the degree of curvature of this function that will provide us with the consumers’ R coefficient of aversion to the risk of inter-temporal imbalance in their consumption.
If this coefficient equals 1, this means that the consumer will be ready to reduce his or her consumption by one unit at time 0 in view of benefitting from one additional unit of consumption at time 1. A coefficient of 2 would mean that the consumer is ready to reduce his or her consumption by two units at time 0. It is reasonable to think that R lies somewhere between 1 and 2.
From this perspective, in 1928 Ramsey proposed a simple and illuminating formula for the equilibrium interest rate. Using a power function to measure the consumer’s perceived utility, he showed that the wealth effect in the formation of the equilibrium interest rate was equal to the product of the nominal period growth rate of the economy and the consumer coef ficient of aversion R. This leads to the following relationship:
r = δ + gR
where r is the equilibrium interest rate, δ the impatience rate, g the nominal period growth rate of the economy and R the consumer’s coefficient of aversion to the risk of inter-temporal imbalance in his or her consumption.
Assuming a very low value for δ and a value close to the unit for R, we see that the nominal growth rate of the economy constitutes a reference value for the equilibrium interest rate. This equilibrium interest rate, as explained, is the risk-free rate that must be used to value risk-free assets; if we consider risky assets, we must of course add a risk premium.
In the current context, Ramsey’s relationship makes it possible to appreciate the extent of the effects of unconventional policies put in place by central banks, which have given rise to a risk-free rate close to 0% in the financial markets.
THE LONG-TERM DISCOUNT RATE
Now that we have established the notion of the equilibrium interest rate, we can move on to the question of the structure of discount rates based on their term.
We have just seen that the discount rate is determined by the impatience rate of consumers, their coefficient of aversion R and expectations for the growth rate of the economy. If we consider the impatience rate to be negligible and by assuming that the coefficient of aversion remains unchanged over time, this gives a very important role to the economic outlook: the discount rate based on maturity will mainly reflect the expectations of economic agents in terms of the future growth rate.
Therefore, if we expect economic growth at a constant rate g, the yield-to-maturity curve will be flat. If we expect growth acceleration (growth of the growth rate), the rate structure will grow with the maturity. However, if we expect growth to slow down, the structure of the rates will decrease.
We thus perceive the informative function of the yield-to-maturity curve, which makes it possible to inform the observer of the expectations of financial market operators with regard to expectations of the growth rate of the economy.
WE ALSO SEE THAT THE PENALISATION OF THE LONG-TERM CASH FLOWS BY THE DISCOUNTING PROCESS IS NOT INEVITABLE.
When the economic outlook is trending downwards, the rate structure should be decreasing. But we must not necessarily deduce that this form of the yield curve is synonymous with disaster. It can very easily correspond to a return to normal after a period of over-excitation. For example, coming back to the present, if the growth rate of the economy is particularly high because of catch-up effects, marking a significant gap compared with the sustainable growth rate in the long term, the rate structure should be decreasing and the short-term discount rate higher than the discount rate applicable for a longer time frame.
It is only the action of the central banks, which is particularly noticeable on short maturities, that is preventing such a statistical observation today.
When improvement does not necessarily rhyme with simplification
Today, though this statement may apply more to developed countries than to developing countries, the economic landscape appears on the surface more promising. COVID-19 is on the verge of transforming from epidemic into endemic. Economic recovery is considered likely to last, and the delay to growth accumulated during the COVID-19 crisis has mostly been caught up. Last but not least, prices are accelerating.
This last phenomenon is quite spectacular, with a year-on-year change in consumer prices passing in the space of two years (from early 2020 to early 2022) from 1.9% to 7.5% in the United States and from 1.4% to 5.1% in the eurozone. What’s more, this acceleration is proving stronger and lasting longer than the idea we had of the consequences on the price profile of opening up an economy previously hindered by public health measures.
Faced with these dynamics on the dual front of health and the real economy, opinions on the initiatives to be taken by central banks have changed. The capital markets are calling for the rapid normalisation of monetary policies: stopping the increase in the size of balance sheets and then reducing them, as well as returning the reference rates to levels deemed more normal. This, of course, comes with the creation of both upward pressure and distortions in the rate curves, as well as a loss of direction in the equity markets.
At this stage, let’s have a quick look back to see how far we may have to go. During the epidemic crisis, the main Western central banks (the Fed in the US, the ECB in the eurozone, the Bank of Japan and the Bank of England) accepted a remarkable increase in the size of their balance sheets. For these four banks alone, the balance sheet/GDP ratio went from 36% at the beginning of 2020 to 60% at the end of 2021. This is the counterpart to the bonds bought and the liquidity injected in their respective banking systems. At the same time, the reference rates were positioned or maintained as low as possible (based on the economic and financial characteristics of each country or zone): at +0.25% in the US, at -0.50% in the eurozone, at -0.10% in Japan and at +0.10% in the UK. This pair of initiatives served to ensure the most favourable monetary and financial conditions. They ‘supplemented’ the actions taken by the public authorities: often state-backed loans granted to businesses and furlough measures in parallel to significant support to the economy (around 4.5 points of GDP on average for the OECD zone; note, the two types of measure may partly overlap).
Now, let’s try to set out the monetary policy debate. The net rebound of economic growth in 2021, the widely shared feeling that economic activity will continue following an upward trend, and price developments that are struggling to get back into line all contribute to a situation that justifies the beginning of monetary policy normalisation. It goes without saying that the timing and the rhythm of this normalisation depend on conditions specific to each geography.
HOWEVER, WE MUST BE AWARE OF THE SINGULAR NATURE OF THE CURRENT SITUATION.
The current inflationary dynamics are not primarily the reflection of excessively strong demand stumbling over a supply side already at full capacity.
More so, they reflect – and quite considerably – production and distribution apparatuses that cannot operate at an optimal rhythm because of the disorganisation caused by the epidemic and sometimes by the effects brought about by public policies. The return to normal – and if possible quickly – is a necessity, unless we are willing to accept lasting losses of supply capacity. With this in mind, we must be careful not to speed down the road to monetary neutrality; otherwise, we risk a loss of momentum in economic growth and a sharp decline in financial markets, both of which would lead us away from the desired goal.
Another point must be mentioned, even if it is more classic in nature: the acceleration of consumer prices is not without incident on households. It gnaws away at their purchasing power and acts negatively on their confidence, both things that serve to slow down private consumption and therefore economic activity.
THIS IS ANOTHER ELEMENT SUPPORTING THE GRADUAL NORMALISATION OF MONETARY POLICY.
How do the two ‘major’ central banks (the Fed in the US and the ECB in the eurozone) go about charting their course on this path, marked out on the one hand by the impatience of the capital markets and on the other by the need to take account of the singularity of the moment and the dexterity that this singularity requires when conducting monetary policy?
All we can do is observe a certain ‘crab walk’ by the Fed and the ECB. Let’s explain and start with the US central bank.
The key phrase of the communiqué at the end of the recent monetary policy committee of 26 January is without doubt the following: ‘With inflation well above 2 percent and a strong labor market, the Committee expects it will soon be appropriate to raise the target range for the federal funds rate.’ Not surprisingly, the reference rate was raised by 25 percentage points on 16 March, and as there is no forward guidance, the rhythm of the monetary normalisation will be data dependent (based on the image of the economy drawn by the most recently published economic indicators). At first, the focus will be on the price profile; then, the importance of the activity profile will grow.
The market, with its perception of growth and inflation, will be quick to anticipate a rapid pace of policy rate increases. The Fed, having approved the start of the movement, is trying to control its tempo. Not the easiest of tasks!
Let’s move on to the ECB. The market retained two things from the meeting of the Council of Governors on 3 February: risks regarding future inflation developments are on the rise and the possibility of a policy rate increase as early as this year cannot be ruled out.
Of course, the analysis put forward at the time was more balanced, and since then, Christine Lagarde and certain other members of the Council, such as François Villeroy de Galhau, have been working to moderate market expectations that are doubtlessly considered excessive.
We can see it clearly. It will all be a question of timing and good pacing in this incipient period of normalisation. In medio stat virtus1, as Aristotle reminds us. But how establishing it can be difficult!
____________
1Virtue lies in a just middle.
IMPACT OF THE RUSSIAN INVASION OF UKRAINE: NECESSARY DOWNWARD REVISION OF ECONOMIC ASSESSMENT
• The world outside Russia, especially Europe, will not get through the crisis unscathed. The continued acceleration of prices and the fall in confidence are the principal reasons for this. Indeed, the price of crude oil has increased by over 30% (+35 dollars per barrel) since the beginning of military operations, and the price of ‘European’ gas has almost doubled. In the same way, it is impossible to extrapolate the rebound in the PMI indices of many countries in February; they are practically ancient history. Growth will slow down and inflation will become more intense, with the United States suffering less than the eurozone.
• Vigilance (caution) may need to be even greater. This new shock (the scale of which remains unknown) is rattling an economic system that is still in recovery: the epidemic is being followed by a difficult rebalancing of supply and demand, creating an unusual upward trend in prices compared with the past few decades. Is the economic system’s resistance weaker as a result?
• In these conditions, monetary normalisation will be more gradual than anticipated. Central banks should monitor the increase in energy (and also food) prices and focus more on price dynamics excluding these two components – what we call the ‘core’. The most likely assumption is that this core will experience a slower tempo, above all because of less well-orientated demand.
Aujourd’hui, même si l’affirmation vaut plus pour les pays développés que pour les émergents, le panorama économique est a priori plus favorable. L’épidémie est en passe de se transformer en endémie, la reprise économique est considérée comme devant être durable, avec un retard de croissance accumulé durant la crise de la COVID le plus souvent comblé, et, dernier point et non des moindres, les prix accélèrent.
Ce dernier mouvement est même spectaculaire, avec un glissement sur un an des prix à la consommation, passé respectivement en l’espace de deux ans (du début 2020 au début 2022) de 1,9% à 7,5% aux Etats-Unis et de 1,4% à 5,1% en Zone Euro. Qui plus est cette accélération est plus forte et dure plus longtemps que l’idée qu’on se faisait des implications de la réouverture d’une économie, préalablement entravée par les mesures prises de santé publique, sur le profil des prix.
Face à ces dynamiques sur le double front sanitaire et de l’économie réelle, les regards jetés sur les initiatives à prendre par les banques centrales ont évolué. Les marchés de capitaux réclament une normalisation rapide des politiques monétaires : arrêt de la hausse, puis réduction, de la taille des bilans et retour des taux directeurs vers des niveaux jugés plus normaux. Ce qui ne va pas sans créer tant des pressions haussières et des déformations des courbes des taux que de pertes de repères sur les marchés d’actions.
Faisons à ce stade un petit rappel, pour prendre la mesure du chemin à éventuellement parcourir. Durant la crise épidémique, les principales banques centrales occidentales (Fed américaine, BCE en Zone Euro, Banque du Japon et Banque d’Angleterre) ont accepté de gonfler de façon spectaculaire la taille de leur bilan. A elles-quatre, le ratio bilan/PIB est passé de 36% au début de 2020 à 60% à la fin de 2021. Il s’agit de la contrepartie des obligations achetées et des liquidités injectées dans les systèmes bancaires respectifs. Dans le même temps, les taux directeurs ont été positionnés ou maintenus le plus bas possible (en fonction des caractéristiques économiques et financières propres à chaque pays ou zone) : à +0,25% aux Etats-Unis, à -0,50% en Zone Euro, à-0,10% au Japon et à +0,10% au Royaume-Uni. Ce couple d’initiatives répondait à l’ambition d’assurer les conditions monétaires et financières les plus favorables. Il a « complémenté » les actions prises par les administrations publiques : souvent des prêts garantis aux entreprises et des mesures de chômages techniques en parallèle d’un soutien important à l’économie (de l’ordre de 4,5 points de PIB en moyenne pour la zone OCDE ; attention les deux types de mesures peuvent en partie se recouper).
Essayons maintenant de poser le débat de politique monétaire. Le net rebond de la croissance économique en 2021, le sentiment largement partagé que l’activité se maintiendra sur une tendance haussière et une évolution des prix qui a du mal à rentrer dans le rang forment un tout qui justifie de démarrer le processus de normalisation du réglage monétaire. Bien sûr, le calendrier et le rythme dépendent des conditions propres à chaque géographie.
IL FAUT TOUTEFOIS AVOIR CONSCIENCE DU CARACTÈRE « ORIGINAL » DE LA SITUATION ACTUELLE.
La dynamique inflationniste du moment n’est pas avant tout le reflet d’une demande trop forte, qui viendrait buter sur des capacités d’offre pleinement utilisées. Elle traduit plutôt, et pour beaucoup, des appareils de production et de distribution qui ne peuvent fonctionner à un régime optimal, à cause de la désorganisation induite par la crise épidémique et parfois aussi par les réponses apportées par les politiques publiques. Ce retour à la normale, si possible rapidement, est une nécessité ; sauf à accepter des pertes durables de capacités d’offre. A ce titre, il faut être attentif à ce que le chemin vers la neutralité monétaire ne soit pas emprunté avec une « vitesse » excessive. Au risque sinon d’une perte de portance de la croissance économique et d’un brusque décrochage des marchés financiers, qui feraient l’un et l’autre s’éloigner du but recherché.
Un autre point, même s’il est d’une facture plus classique, doit être mentionné. L’accélération des prix à la consommation n’est pas sans incidence sur les ménages. Elle grignote leur pouvoir d’achat et agit négativement sur leur confiance ; toutes choses qui militent en faveur d’un ralentissement de la consommation privée et, par-delà, de l’activité économique.
IL Y A ICI UN ÉLÉMENT SUPPLÉMENTAIRE EN FAVEUR DU GRADUALISME DANS LA CONDUITE DE CE PROCESSUS DE NORMALISATION MONÉTAIRE.
Comment les deux « grandes » banques centrales, que sont la Fed américaine et la BCE européenne, s’y prennent-elles pour tracer leur chemin sur cette piste, balisée d’un côté par l’impatience des marchés de capitaux et de l’autre par la nécessaire prise en compte du caractère original du moment présent et du doigté que cela implique dans la conduite de la politique monétaire ?
Il reste alors à observer une certaine « marche en crabe » de la Fed et de la BCE. Expliquons-nous et commençons par la banque centrale américaine. La phrase-clé du communiqué publié au sortir du plus récent comité de politique monétaire du 26 janvier est sans doute la suivante : « Avec l’inflation bien supérieur à 2 % et un marché du travail vigoureux, le comité s’attend à ce qu’il soit bientôt approprié de relever la fourchette cible du taux des fonds fédéraux ». Sans surprise, le taux directeur a bien été relevé de 25 centimes le 16 mars, et comme il n’y a plus de forward guidance (guidage prospectif), le rythme de la normalisation monétaire sera data dependent (calé sur l’image de l’économie dessinée par les indicateurs conjoncturels les plus récemment publiés). Dans un tout premier temps, l’attention portera prioritairement sur le profil des prix. Puis, l’importance accordée au profil de l’activité ira croissante.
Le marché, avec l’idée qu’il se fait de la croissance et de l’inflation, est prompt à anticiper un rythme rapide de remontée du taux directeur. La Fed, après avoir donné son aval à l’initialisation du mouvement, tente d’en contrôler le tempo. Ce qui n’est pas très facile !
Passons à la BCE. Le marché a retenu deux choses de la réunion du Conseil des gouverneurs du 3 février : les risques concernant les évolutions à venir de l’inflation sont orientés à la hausse et la possibilité d’une hausse du taux directeur dès cette année n’est pas écartée.
Bien sûr, l’analyse proposée était davantage balancée et depuis tant Christine Lagarde que certains autres membres du Conseil, comme François Villeroy de Galhau, s’emploient à modérer des anticipations de marché sans doute considérées comme excessives.
On le perçoit bien ; tout va être question de bon calendrier et de bon rythme dans cet exercice de normalisation qui démarre. In medio stat virtus, nous rappelle Aristote. Mais oh combien la déclinaison peut être difficile !
IMPACT DE L’INVASION DE L’UKRAINE PAR LA RUSSIE : NÉCESSAIRE RÉVISION DU DIAGNOSTIC CONJONCTUREL DANS UN SENS MOINS FAVORABLE
• Le monde hors Russie, singulièrement l’Europe, ne « passera pas entre les gouttes ». La poursuite de l’accélération des prix et un repli de la confiance en sont les ingrédients principaux. Ainsi, le prix du pétrole brut a augmenté de plus de 30% (+35 dollars par baril) depuis le début des opérations militaires et celui du gaz « européen » a presque doublé. De même, il n’est pas possible d’extrapoler le rebond des indices PMI de beaucoup de pays en février ; ce n’est plus que de l’histoire ancienne. La croissance va ralentir et l’inflation se faire plus vive ; avec des Etats-Unis moins pénalisés que la Zone Euro.
• Il est possible que la vigilance (la prudence) doive être encore plus grande. Ce nouveau choc (dont l’ampleur n’est pas encore connu) vient ébranler un système économique toujours convalescent : la crise épidémique, suivie d’un difficile rééquilibrage offre –demande qui crée une dynamique haussière des prix inusitée si on prend comme référence les décennies les plus récentes. Sa résistance est-elle plus faible à ce titre ?
• Dans ces conditions, la normalisation monétaire se fera plus graduelle qu’anticipée. Les banques centrales devraient « enjamber » le renchérissement des produits énergétiques (et aussi alimentaires) et se focaliser davantage sur la dynamique des prix hors ces deux composantes ; ce qu’on appelle le noyau dur. L’hypothèse la plus probable est que celui-ci connaisse un tempo moins marqué qu’escompté ; avant tout du fait d’une demande moins bien orientée.
Philippe Raimbourg Directeur de l’Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Professeur affilié à ESCP Business School
Si depuis Irving Fisher, on sait que la valeur d’un actif se confond avec la valeur actualisée des flux financiers qu’il est susceptible de générer, on sait aussi que le processus d’actualisation érode fortement les flux de long terme et réduit d’autant l’attrait des projets de maturité importante.
CE RÉSULTAT EST LA CONSÉQUENCE D’UN DOUBLE PHÉNOMÈNE :
• le passage du temps qui, mécaniquement, rabote la valeur actuelle de tous les flux éloignés, • mais aussi, la forme de la structure des taux selon le terme qui conduit généralement à retenir des taux d’actualisation d’autant plus élevés que leur échéance est lointaine ; on constate en effet, habituellement, que la yield curve est croissante avec la maturité du flux considéré.
LE PROCESSUS D’ACTUALISATION ÉRODE FORTEMENT LES FLUX DE LONG TERME
Pour cela, la majorité des entreprises investissent généralement dans des projets de court et moyen terme et laissent les projets de long terme à des organismes étatiques ou proches des Pouvoirs Publics. On cherchera ici à préciser l’éventuel caractère inéluctable de ce constat et sous quelles conditions les taux de long terme peuvent être moins pénalisants que ceux de court terme. Cela nous amènera dans un premier temps à préciser la notion de « taux d’actualisation d’équilibre ».
LE TAUX D’ACTUALISATION D’ÉQUILIBRE
On ne traite ici que du taux sans risque, avant prise en compte d’une éventuelle prime de risque. Dans un contexte de maximisation du bien-être inter-temporel des agents économiques, le taux d’actualisation d’équilibre est celui qui permet à un agent de choisir entre un investissement (c’est-à-dire une diminution de son bien-être immédiat résultant d’une réduction de sa consommation au temps 0 au profit d’une épargne autorisant l’investissement) et une consommation future, fruit de l’investissement réalisé.
ON MONTRE AISÉMENT QUE DEUX COMPOSANTES DÉTERMINENT LE TAUX D’ACTUALISATION D’ÉQUILIBRE :
• le taux de préférence pour le présent des agents économiques ; • un éventuel effet-richesse qui est positif lorsqu’une croissance de la consommation est attendue.
Le taux de préférence pour le présent (ou encore, taux d’impatience) est un paramètre individuel dont la valeur peut fortement varier d’un individu à l’autre. Cependant, envisagé d’un point de vue macroéconomique, ce taux se situe dans une perspective intergénérationnelle qui nous incite à penser que la valeur de ce paramètre doit être proche de zéro. Aucun argument ne peut en effet justifier que l’on favorise une génération plutôt qu’une autre.
L’effet richesse résulte d’une croissance de l’économie permettant aux agents économiques d’accroître leur consommation au cours du temps. Ces perspectives d’accroissement de la consommation amènent les agents économiques à privilégier le temps présent et à utiliser un facteur d’actualisation d’autant plus élevé qu’ils envisagent un horizon lointain.
Parallèlement à cet éventuel effet richesse, on comprend aussi que le taux d’actualisation d’équilibre dépend des caractéristiques et des choix des agents. Il se peut qu’ils préfèrent fortement lisser dans le temps leur consommation, ou au contraire qu’ils n’éprouvent aucune aversion face à une éventuelle inégalité de la distribution inter-temporelle de leur consommation. Techniquement, une fois la fonction d’utilité des consommateurs connue (ou supposée), c’est le degré de curvature de cette fonction qui nous fournira le coefficient d’aversion R des consommateurs au risque de déséquilibre inter-temporel de leur consommation.
Si ce coefficient est égal à 1, cela signifie que le consommateur sera prêt à réduire sa consommation d’une unité au temps 0 en vue de bénéficier d’une unité de consommation supplémentaire au temps 1. Un coefficient de 2 signifierait qu’il est prêt pour cela à réduire sa consommation de 2 unités au temps 0. Il est raisonnable de penser que R est compris entre 1 et 2.
Dans cet te perspective, Ramsey en 1928 a proposé une formulation tout à la fois simple et éclairante du taux d’actualisation d’équilibre. En retenant une fonction puissance pour mesurer l’utilité perçue par le consommateur, il a montré que l’effet richesse dans la formation du taux d’actualisation d’équilibre était égal au produit du taux de croissance nominal par période de l’économie et du coefficient d’aversion R des consommateurs. Il est ainsi conduit à la relation suivante :
r = δ + gR
où r est le taux d’actualisation d’équilibre, δ le taux d’impatience, g le taux de croissance nominal par période de l’économie et R le coefficient d’aversion des consommateurs au risque de déséquilibre inter-temporel de leur consommation.
En admet tant une valeur très faible pour δ et une valeur proche de l’unité pour R, on voit que le taux de croissance nominal de l’économie constitue une valeur de référence pour le taux d’actualisation d’équilibre. Ce taux d’actualisation d’équilibre, comme cela a été précisé, est le taux sans risque qui doit être utilisé pour valoriser des actifs sans risque ; si l’on s’intéresse à des actifs risqués, il faut bien sûr lui adjoindre une prime de risque.
Dans le contexte actuel, la relation de Ramsey permet d’apprécier l’ampleur des effets des politiques non conventionnelles des banques centrales qui ont fait émerger sur les marchés financiers un taux sans risque proche de 0%.
LE TAUX D’ACTUALISATION DE LONG TERME
La notion de taux d’actualisation d’équilibre étant précisée, on peut maintenant aborder la question de la structure des taux d’actualisation selon leur terme.
On vient de voir que le taux d’actualisation est déterminé par le taux d’impatience des consommateurs, leur coefficient d’aversion R et les anticipations de taux de croissance de l’économie. En considérant comme négligeable le taux d’impatience et en supposant que le coefficient d’aversion reste inchangé au cours du temps, cela confère un rôle très important aux perspectives économiques : le taux d’actualisation selon la maturité va principalement refléter les attentes des agents économiques en matière de taux de croissance futur.
Ainsi, si l’on anticipe une croissance économique à un taux constant g, la structure des taux selon le terme sera plate. Si l’on anticipe une accélération de la croissance (une croissance du taux de croissance), la structure des taux sera croissante avec la maturité. En revanche, si l’on s’attend à une décélération de la croissance, la structure des taux sera décroissante.
On perçoit ainsi la fonction informative de la structure des taux selon le terme qui permettra de renseigner l’observateur sur les anticipations des opérateurs du marché financier en matière d’anticipations du taux de croissance de l’économie.
ON VOIT AUSSI QUE LA PÉNALISATION DES CASH FLOWS DE LONG TERME PAR LE PROCESSUS D’ACTUALISATION N’EST PAS INÉLUCTABLE.
Lorsque les perspectives économiques sont baissières, la structure des taux devrait être décroissante. Mais il ne faut pas forcément en déduire que cette forme de la yield curve est synonyme de catastrophe annoncée. Elle peut très bien correspondre à un retour à la normale après une période de surchauffe. Par exemple, pour revenir à l’actualité, si le taux de croissance de l’économie est particulièrement élevé du fait de phénomènes de rattrapage, et marque un écart important par rapport au taux de croissance soutenable dans le long terme, la structure des taux devrait être décroissante et le taux d’actualisation court plus élevé que le taux d’actualisation applicable à des échéances plus lointaines.
Ce n’est que l’action des banques centrales, surtout perceptible sur des échéances courtes, qui empêche aujourd’hui une telle observation statistique.
« Dès lors que « l’exercice du métier » ne peut pas être directement mis en relation avec les valeurs spirituelles suprêmes de la civilisation – et que, à l’inverse, il ne peut pas être éprouvé subjectivement comme une simple contrainte économique –, l’individu renonce généralement à lui donner un sens », écrit en 1905 Max Weber à la fin de L’Éthique protestante et l’Esprit du capitalisme. Or n’est-ce pas ce que nous observons un siècle plus tard ? Un monde où la valeur travail semble avoir perdu de son évidence : comme si elle était « en voie de disparition »…
Big Quit aux Etats-Unis, hashtags #quitmyjob, #nodreamjob ou #no_labor, communautés aux millions de followers comme le groupe Antiwork du réseau social Reddit : les signaux se multiplient pour manifester une forme de révolte, voire de dégoût du travail. Pas seulement une évolution de celui-ci (comme le télétravail et la fin du salariat comme modèle d’emploi exclusif pourraient le laisser penser), mais un mouvement de remise en question bien plus profond : comme un refus de travailler. On est loin de la déclaration d’un Chaplin faisant de l’idéal du travail celui de la vie même : « Travailler, c’est vivre – et j’adore vivre ! »
Pour Max Weber, le travail s’est imposé comme valeur structurante de nos sociétés au moment où la réforme protestante s’est définitivement ancrée dans le paysage européen et triomphalement exportée aux Etats-Unis. Mais le sociologue ne cesse de le répéter : le succès de cette ardeur au travail ne s’explique que par l’intérêt spirituel qui lui était alors lié. C’est parce qu’une vie consacrée au labeur était le signe le plus certain d’une élection par Dieu que des hommes s’y adonnèrent avec tant d’ardeur.
Quand la valeur éthique du travail ne fut plus religieuse, elle devint sociale : l’indice de l’intégration à la communauté et de la reconnaissance de l’accomplissement individuel.
Et aujourd’hui ? À quoi tient la valeur spirituelle du travail quand vacille le paradigme de la (sur)production et de la croissance sans limite, et au moment où la « monnaie hélicoptère » a coulé à flots pendant de longs mois ? Les jeunes générations, qui bousculent avec le plus de véhémence l’évidence de cette valeur travail, doivent nous amener à expliciter le sens de cette dernière pour le XXIe siècle : car les études se multiplient pour montrer que les jeunes ne sont plus prêts à travailler à n’importe quel prix.
La philosophe Simone Weil, qui avait travaillé en usine, croyait en une « civilisation du travail », dans laquelle ce dernier deviendrait « la valeur la plus haute, par son rapport avec l’homme qui l’exécute [et non] par son rapport avec ce qu’il produit. » Faire de l’homme la mesure du travail : voilà peut-être ce par quoi il faut commencer pour, demain, associer à nouveau une dimension éthique au travail – la seule à même d’en justifier la valorisation.« Notre époque a pour mission propre, pour vocation, la constitution d’une civilisation fondée sur la spiritualité du travail », écrivait encore Simone Weil.
____________
1Max Weber, L’Éthique protestante et l’esprit du capitalisme, Flammarion « Champs Classiques », 2017.
2Dominique Méda, Le Travail ; Une Valeur en voie de disparition ?, Flammarion « Champs-Essais », 2010.
3David Robinson Chaplin: His Life and Art, 2013, Penguin Biography.
Banque de détail, la querelle des anciens et des modernes
David Chollet Associé, Accuracy
Nicolas Darbo Associé, Accuracy
Amaury Pouradier Duteil Associé, Accuracy
La banque de détail est un secteur dont le rythme de transformation va aller en s’accélérant dans les prochaines années. Ces dix dernières années ont surtout vu les modes de distribution évoluer vers davantage de digitalisation, sans toutefois remettre en cause le modèle physique. Dans les dix ans qui viennent, dans un monde où la technologie va progressivement permettre de servir les grands univers de besoins via des plateformes, il faudra faire évoluer à la fois l’offre, la distribution et les solutions technologiques.
1. LES TRANSFORMATIONS À L’OEUVRE
Inutile de revenir trop longtemps sur le contexte dans lequel la banque de détail se déploie depuis plusieurs années, avec trois défis principaux : des taux ultra-bas, une réglementation qui s’est considérablement durcie depuis 2008 et la survenance de nouveaux acteurs.
Au-delà de ce contexte, le secteur connaît des mutations technologiques majeures. La première d’entre elles concerne la donnée. Ainsi, l’open banking désigne une tendance de fond qui pousse à l’ouverture des systèmes d’information des banques et le partage des données de leurs clients (identité, historiques de transactions…). Un nouvel écosystème bancaire ouvert se dessine progressivement, dans lequel de multiples acteurs (banques, établissements de paiement, éditeurs technologiques…) partagent des données et intègrent les services des uns et des autres dans leurs propres interfaces, permettant à de nouveaux services et outils de voir le jour.
Autre évolution majeure : la BaaS, ou bank As A Service. Historiquement, la banque de détail était une industrie de coûts fixes. L’ouverture des donnée, la bascule sur le cloud et l’APIsation des systèmes bancaires rendent désormais caduques ces modèles de production fermés et verticalement intégrés. Chacune des briques de production des services financiers peut désormais être proposée « As-a-service ». Cette transformation conduit à une bascule d’un modèle économique à coûts fixes vers une logique de coûts variables. En externalisant leur banking system, les challengers digitaux peuvent ainsi se lancer avec des coûts et des délais compressés.
Enfin, le secteur ne peut pas rester complètement à l’écart du phénomène des super-apps qui progressivement modifient les usages en agrégeant des services issus d’univers de besoins très différents. Cette évolution peut lentement rendre obsolète la façon de servir les clients et nécessite probablement le développement de ce que l’on pourrait qualifier de « finance embarquée ».
2. L’AVENIR DES ACTEURS TRADITIONNELS
Les banques traditionnelles ont globalement résisté aux vents contraires cités précédemment, avec, depuis dix ans, des revenus qui ne se sont pas effondrés, même si leur croissance s’est avérée plutôt modérée.
Les acteurs traditionnels conservent un certain nombre de points forts. D’abord les banques historiques disposent de gammes de produits complètes, qui couvrent bien sûr la banque au quotidien (compte, carte, forfaits…) mais aussi les univers bilanciels du crédit et de l’épargne. Ranger l’informatique des grandes banques dans les points forts peut sembler provocateur. Néanmoins, ces grands systèmes, à défaut d’être agiles, sont souvent d’une très grande robustesse, tout en ayant permis de réduire l’écart technologique avec les néobanques. Enfin, les acteurs traditionnels sont puissants financièrement, et capables d’investir pour accélérer sur un plan technologique quand il le faut.
Ces acteurs ont quelques points faibles naturellement. Le principal concerne l’expérience client. Mais le sujet ne concerne pas l’écart avec les néobanques, qui a été le plus souvent comblé, mais plutôt avec des acteurs purement technologiques par exemple. Dans le mouvement de convergence des univers de besoins, cela peut constituer un handicap pour le secteur financier dans son ensemble. Un autre point faible concerne la faible marge de manoeuvre en matière de réduction des effectifs ou des agences s’il fallait mettre en oeuvre des programmes massifs de baisse des coûts.
Ces acteurs déploient ou vont devoir déployer plusieurs natures de stratégies. Il y a d’abord des actions de nature financière, soit de concentration, soit de restructuration. La concentration vise à céder toutes les activités éloignées des marchés principaux pour être le plus gros possible sur les marchés domestiques. Les restructurations, en Espagne notamment, mais aussi en France avec le rapprochement SG et CDN, visent à abaisser le point mort.
D’autres actions devront être mises en oeuvre par les banques. Sur le plan informatique, il arrivera un moment, plus très loin, où le manque d’agilité des systèmes historiques ne sera plus compensé par leur robustesse. Les évolutions vont s’accélérer et la vitesse d’évolution va devenir clef.
Enfin, les acteurs traditionnels vont devoir repenser leurs modèles de distribution à l’aune du digital et de la convergence du service des grandes natures de besoins, qui vont permettre la finance embarquée. L’idée de cette dernière est d’intégrer la souscription du produit financier directement au parcours de consommation ou d’achat du client. Le service financier devient ainsi disponible de façon contextuelle et digitale.
3. L’AVENIR DES NÉOBANQUES
Les néobanques se sont développées par vagues successives depuis plus de vingt ans, et la dernière vague a vu apparaître des acteurs se développant rapidement et acquérant des clients par millions et capable de lever des fonds colossaux sur la promesse d’un basculement massif de clients vers leur modèle.
Le premier point fort des néobanques concerne leur technologie. Etant partis de zéro sur le plan de l’IT, elles ont pu s’appuyer sur la BaaS pour développer exactement ce dont ils avaient besoin et avec le bon niveau d’expérience client. Par ailleurs, ces acteurs ciblent généralement des segments précis et proposent en conséquence une offre et un parcours client parfaitement adaptés, ce qui est plus difficile pour les grandes banques généralistes.
Les points faibles sont souvent le corollaire de leurs points forts. L’offre limitée permet certes de mieux répondre à certains besoins précis, mais dans un monde où la technologie permet l’émergence de plateformes multi-services, n’adresser qu’une partie des besoins en matière de services financiers ne va pas forcément dans le bon sens et place les néobanques à la périphérie d’un métier qui lui-même n’est pas le mieux placé dans le mouvement de convergence des besoins. Mais si l’offre est limitée, ce n’est pas forcément par choix. Développer l’univers du crédit et de l’épargne, le plus souvent absent au sein des néobanques, nécessiterait de changer de dimension en matière de contrôles et de consommation de capital notamment. Enfin, la conséquence de cette offre limitée est l’incapacité à capter en masse le client le plus rentable de la banque de détail, le bancarisé principal. Cela explique la faiblesse des revenus, qui plafonnent à vingt euros par client.
Cela ne condamne pas forcément l’avenir des néobanques. Déjà, il faut distinguer les pays matures des pays non matures en matière de bancarisation. Dans les pays peu bancarisés, les néobanques ont souvent un boulevard devant elles, à l’image de Nubank au Brésil (40 millions de clients). Dans les pays ultra-bancarisés, l’histoire est différente. La faiblesse des revenus et le mouvement de convergence des grandes natures de besoin devraient obliger les néobanques à réaliser des choix. Elles peuvent étendre d’urgence leur offre au bilan, comme Revolut semble l’entrevoir. Elles peuvent aussi décider de sauter l’étape du bilan pour élargir directement leur offre à d’autres univers de besoins, comme le réalise Tinkoff. Elles peuvent enfin se faire racheter par un acteur traditionnel qui y verrait un intérêt sur un plan technologique, sans trop tarder néanmoins.
Le secteur de la banque de détail est plus que jamais sous le coup de transformations majeures, soit endogènes, comme celles qui touchent à la donnée et à la BaaS, soit exogènes, comme le développement de plateformes servant plusieurs natures de grandes besoins, avec à l’origine un souhait de « simplification » de la part des consommateurs. Dans ce contexte, les acteurs t raditionnels se doivent d’adresser deux sujets majeurs : la finance embarquée d’une part, et peut-être la bascule « à terme » vers des systèmes réso lument plus agiles pour rester compétitifs. Quant aux néobanques, il faudra d’urgence étendre l’of fre au bilan, au risque de perdre en agilité, soit à d’autres univers de besoins.
Mais le secteur financier dans son ensemble devra probablement chercher à simplifier drastiquement la consommation de leurs services, face à des acteurs non financiers qui ont déjà opéré cette transformation.
Créée en 2018 et originaire de Saint-Malo, H2X-Ecosystems propose aux territoires et aux entreprises de créer un écosystème vertueux complet alliant production d’énergie et mobilité décarbonées, qui permet à la fois de produire et consommer sur place l’hydrogène. Ces écosystèmes sont coconstruits avec et pour les acteurs locaux afin de valoriser au mieux leurs ressources territoriales pour créer de la valeur ajoutée tout en la maintenant à l’échelle locale. Ils participent ainsi au développement de ces territoires ruraux, périurbains ou urbains.
L’hydrogène renouvelable et bas carbone est produit à partir des ENR et du procédé d’électrolyse de l’eau, qui est récemment devenu un des leviers majeurs vers la décarbonation. La société associe cette production à des consommateurs classiques (bus, bennes à ordure, etc.) mais aussi et surtout des services de mobilité légère et de livraison: voitures en libre-service et livraison des derniers kilomètres. H2X-Ecosystems a ainsi rendu accessible une voiture hybride fonctionnant à la fois à l’énergie solaire et à l’hydrogène, grâce à laquelle les bornes on-grid de rechargement ne sont donc plus nécessaires. Le tout sans émission sonore, ni de gaz à effet de serre (CO2, NOx, etc.)
Plus généralement, H2X-Ecosystems est présent sur l’ensemble de la chaîne de valeur de l’hydrogène de la production, à la consommation en passant par le stockage : électrolyseur, groupe électro-hydrogène forte puissance, powerpack (piles à combustible et réservoirs amovibles) pouvant être intégrés dans des solutions de mobilités légères.
Ainsi, H2X-Ecosystems a signé un accord de partenariat avec Enedis Bretagne pour le déploiement de son groupe électro-hydrogène de forte puissance conçu pour fournir une alimentation électrique provisoire, en période de travaux ou lors d’un incident, au réseau d’électricité. Ce groupe permet, de fait, de réduire les émissions de CO2 et sonores d’ENEDIS en remplaçant leurs groupes fossiles par cette technologie.
De plus, dans une période de contrainte forte sur les prix de l’énergie, la proposition de valeur portée par H2X ECOSYSTEMS permet de tendre vers une maîtrise des dépenses énergétiques et vers une autonomie énergétique des sites industriels en s’appuyant notamment sur ce générateur électro-hydrogène couplé à d’autres systèmes complémentaires (ENR, production sur site d’hydrogène, etc.).
Dans sa présentation du plan France 2030, le Président de la République Emmanuel Macron a réaffirmé l’importance de ce secteur à l’avenir :« Nous allons investir près de 2 milliards d’euros pour développer l’hydrogène vert. C’est une bataille pour l’écologie, pour l’emploi, pour la souveraineté de notre pays que nous allons mener ».
S’appuyant notamment sur l’énergie nucléaire pour produire de l’électrolyse très décarbonée, la France a un rôle de leader à jouer et H2X-Ecosystems y participe pleinement en implantant ses premiers outils de production en France tout en conciliant son développement avec une démarche écologique vertueuse créatrice de valeurs ajoutées, indépendance énergétique et rentabilité pour les entreprises et les territoires.
Après avoir été fragilisée par plusieurs évènements et décisions défavorables (Fukushima, Flamanville, Fessenheim), l’industrie du nucléaire connaît aujourd’hui un regain d’intérêt.
La récente annonce par le Président de la République française du lancement d’un programme de construction de 6 réacteurs EPR2 traduit le choix de maintenir un socle de production d’électricité décarbonée à partir de l’énergie nucléaire. Si elle fait l’objet de débats, cette décision relève d’un pragmatisme froid : malgré la démonstration d’un déploiement à grande échelle, les énergies renouvelables restent soumises aux aléas météorologiques et ne seront pas en mesure de se substituer aux moyens de production d’énergie pilotables, tant les engagements de réduction des émissions de gaz à effet de serre à horizon 2050 sont ambitieux.
Face à l’électrification de l’économie, le choix de maintenir le nucléaire dans le mix énergétique français aux côtés des énergies renouvelables n’est pas une option mais relève de la nécessité. Le garant de l’équilibre des réseaux en France, RTE, le reconnait également : les scénarios sans renouvellement du parc nucléaire reposent, en matière de sécurité d’approvisionnement, sur des paris technologiques et sociétaux significatifs. Au-delà de ces aspects, le nucléaire constitue également un vecteur évident d’indépendance énergétique pour les européens. L’actualité nous le rappelle cruellement, et a failli faire infléchir la position du Gouvernement fédéral allemand sur son retrait du nucléaire.
En France, les premières estimations font état d’un coût de construction de 52mds€ mais les modalités de financement restent encore à définir. Seule certitude, le soutien de l’Etat sera indispensable pour garantir la compétitivité du prix final de l’électricité, compte tenu de l’ampleur des investissements et des risques pesant sur ce projet. Il faudra enfin faire preuve d’imagination en terme d’ingénierie financière afin d’aligner les intérêts de l’Etat, d’EDF et des consommateurs.
Pour notre quatrième édition de Accuracy Talks Straight, René Pigot fait le point sur l’industrie du nucléaire, avant de laisser Romain Proglio nous présenter H2X-Ecosystems, une start-up permmettant aux territoires et aux entreprises de produire et consommer sur place l’hydrogène. Nous analyserons ensuite l’évolution de la banque de détail avec David Chollet, Nicolas Darbo et Amaury Pouradier Duteil. Sophie Chassat, Philosophe et associée chez Wemean, nous proposera d’étudier le sens de la valeur travail. Enfin, nous nous focaliserons sur le taux d’actualisation avec Philippe Raimbourg, Directeur de l’Ecole de Management de la Sorbonne et Professeur affilié à ESCP Business School, ainsi que l’amélioration du panorama économique avec Hervé Goulletquer, Senior Economic Advisor.
Après avoir été fragilisée par plusieurs évènements et décisions défavorables (Fukushima, Flamanville, Fessenheim), l’industrie du nucléaire connaît aujourd’hui un regain d’intérêt.
La récente annonce par le Président de la République française du lancement d’un programme de construction de 6 réacteurs EPR2 traduit le choix de maintenir un socle de production d’électricité décarbonée à partir de l’énergie nucléaire. Si elle fait l’objet de débats, cette décision relève d’un pragmatisme froid : malgré la démonstration d’un déploiement à grande échelle, les énergies renouvelables restent soumises aux aléas météorologiques et ne seront pas en mesure de se substituer aux moyens de production d’énergie pilotables, tant les engagements de réduction des émissions de gaz à effet de serre à horizon 2050 sont ambitieux.
Face à l’électrification de l’économie, le choix de maintenir le nucléaire dans le mix énergétique français aux côtés des énergies renouvelables n’est pas une option mais relève de la nécessité. Le garant de l’équilibre des réseaux en France, RTE, le reconnait également : les scénarios sans renouvellement du parc nucléaire reposent, en matière de sécurité d’approvisionnement, sur des paris technologiques et sociétaux significatifs. Au-delà de ces aspects, le nucléaire constitue également un vecteur évident d’indépendance énergétique pour les européens. L’actualité nous le rappelle cruellement, et a failli faire infléchir la position du Gouvernement fédéral allemand sur son retrait du nucléaire.
En France, les premières estimations font état d’un coût de construction de 52mds€ mais les modalités de financement restent encore à définir. Seule certitude, le soutien de l’Etat sera indispensable pour garantir la compétitivité du prix final de l’électricité, compte tenu de l’ampleur des investissements et des risques pesant sur ce projet. Il faudra enfin faire preuve d’imagination en terme d’ingénierie financière afin d’aligner les intérêts de l’Etat, d’EDF et des consommateurs.
Créée en 2018 et originaire de Saint-Malo, H2X-Ecosystems propose aux territoires et aux entreprises de créer un écosystème vertueux complet alliant production d’énergie et mobilité décarbonées, qui permet à la fois de produire et consommer sur place l’hydrogène. Ces écosystèmes sont coconstruits avec et pour les acteurs locaux afin de valoriser au mieux leurs ressources territoriales pour créer de la valeur ajoutée tout en la maintenant à l’échelle locale. Ils participent ainsi au développement de ces territoires ruraux, périurbains ou urbains.
L’hydrogène renouvelable et bas carbone est produit à partir des ENR et du procédé d’électrolyse de l’eau, qui est récemment devenu un des leviers majeurs vers la décarbonation. La société associe cette production à des consommateurs classiques (bus, bennes à ordure, etc.) mais aussi et surtout des services de mobilité légère et de livraison: voitures en libre-service et livraison des derniers kilomètres. H2X-Ecosystems a ainsi rendu accessible une voiture hybride fonctionnant à la fois à l’énergie solaire et à l’hydrogène, grâce à laquelle les bornes on-grid de rechargement ne sont donc plus nécessaires. Le tout sans émission sonore, ni de gaz à effet de serre (CO2, NOx, etc.)
Plus généralement, H2X-Ecosystems est présent sur l’ensemble de la chaîne de valeur de l’hydrogène de la production, à la consommation en passant par le stockage : électrolyseur, groupe électro-hydrogène forte puissance, powerpack (piles à combustible et réservoirs amovibles) pouvant être intégrés dans des solutions de mobilités légères.
Ainsi, H2X-Ecosystems a signé un accord de partenariat avec Enedis Bretagne pour le déploiement de son groupe électro-hydrogène de forte puissance conçu pour fournir une alimentation électrique provisoire, en période de travaux ou lors d’un incident, au réseau d’électricité. Ce groupe permet, de fait, de réduire les émissions de CO2 et sonores d’ENEDIS en remplaçant leurs groupes fossiles par cette technologie.
De plus, dans une période de contrainte forte sur les prix de l’énergie, la proposition de valeur portée par H2X ECOSYSTEMS permet de tendre vers une maîtrise des dépenses énergétiques et vers une autonomie énergétique des sites industriels en s’appuyant notamment sur ce générateur électro-hydrogène couplé à d’autres systèmes complémentaires (ENR, production sur site d’hydrogène, etc.).
Dans sa présentation du plan France 2030, le Président de la République Emmanuel Macron a réaffirmé l’importance de ce secteur à l’avenir :« Nous allons investir près de 2 milliards d’euros pour développer l’hydrogène vert. C’est une bataille pour l’écologie, pour l’emploi, pour la souveraineté de notre pays que nous allons mener ».
S’appuyant notamment sur l’énergie nucléaire pour produire de l’électrolyse très décarbonée, la France a un rôle de leader à jouer et H2X-Ecosystems y participe pleinement en implantant ses premiers outils de production en France tout en conciliant son développement avec une démarche écologique vertueuse créatrice de valeurs ajoutées, indépendance énergétique et rentabilité pour les entreprises et les territoires.
Banque de détail, la querelle des anciens et des modernes
David Chollet Associé, Accuracy
Nicolas Darbo Associé, Accuracy
Amaury Pouradier Duteil Associé, Accuracy
La banque de détail est un secteur dont le rythme de transformation va aller en s’accélérant dans les prochaines années. Ces dix dernières années ont surtout vu les modes de distribution évoluer vers davantage de digitalisation, sans toutefois remettre en cause le modèle physique. Dans les dix ans qui viennent, dans un monde où la technologie va progressivement permettre de servir les grands univers de besoins via des plateformes, il faudra faire évoluer à la fois l’offre, la distribution et les solutions technologiques.
1. LES TRANSFORMATIONS À L’OEUVRE
Inutile de revenir trop longtemps sur le contexte dans lequel la banque de détail se déploie depuis plusieurs années, avec trois défis principaux : des taux ultra-bas, une réglementation qui s’est considérablement durcie depuis 2008 et la survenance de nouveaux acteurs.
Au-delà de ce contexte, le secteur connaît des mutations technologiques majeures. La première d’entre elles concerne la donnée. Ainsi, l’open banking désigne une tendance de fond qui pousse à l’ouverture des systèmes d’information des banques et le partage des données de leurs clients (identité, historiques de transactions…). Un nouvel écosystème bancaire ouvert se dessine progressivement, dans lequel de multiples acteurs (banques, établissements de paiement, éditeurs technologiques…) partagent des données et intègrent les services des uns et des autres dans leurs propres interfaces, permettant à de nouveaux services et outils de voir le jour.
Autre évolution majeure : la BaaS, ou bank As A Service. Historiquement, la banque de détail était une industrie de coûts fixes. L’ouverture des donnée, la bascule sur le cloud et l’APIsation des systèmes bancaires rendent désormais caduques ces modèles de production fermés et verticalement intégrés. Chacune des briques de production des services financiers peut désormais être proposée « As-a-service ». Cette transformation conduit à une bascule d’un modèle économique à coûts fixes vers une logique de coûts variables. En externalisant leur banking system, les challengers digitaux peuvent ainsi se lancer avec des coûts et des délais compressés.
Enfin, le secteur ne peut pas rester complètement à l’écart du phénomène des super-apps qui progressivement modifient les usages en agrégeant des services issus d’univers de besoins très différents. Cette évolution peut lentement rendre obsolète la façon de servir les clients et nécessite probablement le développement de ce que l’on pourrait qualifier de « finance embarquée ».
2. L’AVENIR DES ACTEURS TRADITIONNELS
Les banques traditionnelles ont globalement résisté aux vents contraires cités précédemment, avec, depuis dix ans, des revenus qui ne se sont pas effondrés, même si leur croissance s’est avérée plutôt modérée.
Les acteurs traditionnels conservent un certain nombre de points forts. D’abord les banques historiques disposent de gammes de produits complètes, qui couvrent bien sûr la banque au quotidien (compte, carte, forfaits…) mais aussi les univers bilanciels du crédit et de l’épargne. Ranger l’informatique des grandes banques dans les points forts peut sembler provocateur. Néanmoins, ces grands systèmes, à défaut d’être agiles, sont souvent d’une très grande robustesse, tout en ayant permis de réduire l’écart technologique avec les néobanques. Enfin, les acteurs traditionnels sont puissants financièrement, et capables d’investir pour accélérer sur un plan technologique quand il le faut.
Ces acteurs ont quelques points faibles naturellement. Le principal concerne l’expérience client. Mais le sujet ne concerne pas l’écart avec les néobanques, qui a été le plus souvent comblé, mais plutôt avec des acteurs purement technologiques par exemple. Dans le mouvement de convergence des univers de besoins, cela peut constituer un handicap pour le secteur financier dans son ensemble. Un autre point faible concerne la faible marge de manoeuvre en matière de réduction des effectifs ou des agences s’il fallait mettre en oeuvre des programmes massifs de baisse des coûts.
Ces acteurs déploient ou vont devoir déployer plusieurs natures de stratégies. Il y a d’abord des actions de nature financière, soit de concentration, soit de restructuration. La concentration vise à céder toutes les activités éloignées des marchés principaux pour être le plus gros possible sur les marchés domestiques. Les restructurations, en Espagne notamment, mais aussi en France avec le rapprochement SG et CDN, visent à abaisser le point mort.
D’autres actions devront être mises en oeuvre par les banques. Sur le plan informatique, il arrivera un moment, plus très loin, où le manque d’agilité des systèmes historiques ne sera plus compensé par leur robustesse. Les évolutions vont s’accélérer et la vitesse d’évolution va devenir clef.
Enfin, les acteurs traditionnels vont devoir repenser leurs modèles de distribution à l’aune du digital et de la convergence du service des grandes natures de besoins, qui vont permettre la finance embarquée. L’idée de cette dernière est d’intégrer la souscription du produit financier directement au parcours de consommation ou d’achat du client. Le service financier devient ainsi disponible de façon contextuelle et digitale.
3. L’AVENIR DES NÉOBANQUES
Les néobanques se sont développées par vagues successives depuis plus de vingt ans, et la dernière vague a vu apparaître des acteurs se développant rapidement et acquérant des clients par millions et capable de lever des fonds colossaux sur la promesse d’un basculement massif de clients vers leur modèle.
Le premier point fort des néobanques concerne leur technologie. Etant partis de zéro sur le plan de l’IT, elles ont pu s’appuyer sur la BaaS pour développer exactement ce dont ils avaient besoin et avec le bon niveau d’expérience client. Par ailleurs, ces acteurs ciblent généralement des segments précis et proposent en conséquence une offre et un parcours client parfaitement adaptés, ce qui est plus difficile pour les grandes banques généralistes.
Les points faibles sont souvent le corollaire de leurs points forts. L’offre limitée permet certes de mieux répondre à certains besoins précis, mais dans un monde où la technologie permet l’émergence de plateformes multi-services, n’adresser qu’une partie des besoins en matière de services financiers ne va pas forcément dans le bon sens et place les néobanques à la périphérie d’un métier qui lui-même n’est pas le mieux placé dans le mouvement de convergence des besoins. Mais si l’offre est limitée, ce n’est pas forcément par choix. Développer l’univers du crédit et de l’épargne, le plus souvent absent au sein des néobanques, nécessiterait de changer de dimension en matière de contrôles et de consommation de capital notamment. Enfin, la conséquence de cette offre limitée est l’incapacité à capter en masse le client le plus rentable de la banque de détail, le bancarisé principal. Cela explique la faiblesse des revenus, qui plafonnent à vingt euros par client.
Cela ne condamne pas forcément l’avenir des néobanques. Déjà, il faut distinguer les pays matures des pays non matures en matière de bancarisation. Dans les pays peu bancarisés, les néobanques ont souvent un boulevard devant elles, à l’image de Nubank au Brésil (40 millions de clients). Dans les pays ultra-bancarisés, l’histoire est différente. La faiblesse des revenus et le mouvement de convergence des grandes natures de besoin devraient obliger les néobanques à réaliser des choix. Elles peuvent étendre d’urgence leur offre au bilan, comme Revolut semble l’entrevoir. Elles peuvent aussi décider de sauter l’étape du bilan pour élargir directement leur offre à d’autres univers de besoins, comme le réalise Tinkoff. Elles peuvent enfin se faire racheter par un acteur traditionnel qui y verrait un intérêt sur un plan technologique, sans trop tarder néanmoins.
Le secteur de la banque de détail est plus que jamais sous le coup de transformations majeures, soit endogènes, comme celles qui touchent à la donnée et à la BaaS, soit exogènes, comme le développement de plateformes servant plusieurs natures de grandes besoins, avec à l’origine un souhait de « simplification » de la part des consommateurs. Dans ce contexte, les acteurs t raditionnels se doivent d’adresser deux sujets majeurs : la finance embarquée d’une part, et peut-être la bascule « à terme » vers des systèmes réso lument plus agiles pour rester compétitifs. Quant aux néobanques, il faudra d’urgence étendre l’of fre au bilan, au risque de perdre en agilité, soit à d’autres univers de besoins.
Mais le secteur financier dans son ensemble devra probablement chercher à simplifier drastiquement la consommation de leurs services, face à des acteurs non financiers qui ont déjà opéré cette transformation.
La valeur travail a-t-elle encore un sens ?
Sophie Chassat Philosophe, Associée chez Wemean
« Dès lors que « l’exercice du métier » ne peut pas être directement mis en relation avec les valeurs spirituelles suprêmes de la civilisation – et que, à l’inverse, il ne peut pas être éprouvé subjectivement comme une simple contrainte économique –, l’individu renonce généralement à lui donner un sens », écrit en 1905 Max Weber à la fin de L’Éthique protestante et l’Esprit du capitalisme. Or n’est-ce pas ce que nous observons un siècle plus tard ? Un monde où la valeur travail semble avoir perdu de son évidence : comme si elle était « en voie de disparition »…
Big Quit aux Etats-Unis, hashtags #quitmyjob, #nodreamjob ou #no_labor, communautés aux millions de followers comme le groupe Antiwork du réseau social Reddit : les signaux se multiplient pour manifester une forme de révolte, voire de dégoût du travail. Pas seulement une évolution de celui-ci (comme le télétravail et la fin du salariat comme modèle d’emploi exclusif pourraient le laisser penser), mais un mouvement de remise en question bien plus profond : comme un refus de travailler. On est loin de la déclaration d’un Chaplin faisant de l’idéal du travail celui de la vie même : « Travailler, c’est vivre – et j’adore vivre ! »
Pour Max Weber, le travail s’est imposé comme valeur structurante de nos sociétés au moment où la réforme protestante s’est définitivement ancrée dans le paysage européen et triomphalement exportée aux Etats-Unis. Mais le sociologue ne cesse de le répéter : le succès de cette ardeur au travail ne s’explique que par l’intérêt spirituel qui lui était alors lié. C’est parce qu’une vie consacrée au labeur était le signe le plus certain d’une élection par Dieu que des hommes s’y adonnèrent avec tant d’ardeur.
Quand la valeur éthique du travail ne fut plus religieuse, elle devint sociale : l’indice de l’intégration à la communauté et de la reconnaissance de l’accomplissement individuel.
Et aujourd’hui ? À quoi tient la valeur spirituelle du travail quand vacille le paradigme de la (sur)production et de la croissance sans limite, et au moment où la « monnaie hélicoptère » a coulé à flots pendant de longs mois ? Les jeunes générations, qui bousculent avec le plus de véhémence l’évidence de cette valeur travail, doivent nous amener à expliciter le sens de cette dernière pour le XXIe siècle : car les études se multiplient pour montrer que les jeunes ne sont plus prêts à travailler à n’importe quel prix.
La philosophe Simone Weil, qui avait travaillé en usine, croyait en une « civilisation du travail », dans laquelle ce dernier deviendrait « la valeur la plus haute, par son rapport avec l’homme qui l’exécute [et non] par son rapport avec ce qu’il produit. » Faire de l’homme la mesure du travail : voilà peut-être ce par quoi il faut commencer pour, demain, associer à nouveau une dimension éthique au travail – la seule à même d’en justifier la valorisation.« Notre époque a pour mission propre, pour vocation, la constitution d’une civilisation fondée sur la spiritualité du travail », écrivait encore Simone Weil.
____________
1Max Weber, L’Éthique protestante et l’esprit du capitalisme, Flammarion « Champs Classiques », 2017.
2Dominique Méda, Le Travail ; Une Valeur en voie de disparition ?, Flammarion « Champs-Essais », 2010.
3David Robinson Chaplin: His Life and Art, 2013, Penguin Biography.
Le taux d’actualisation de long terme
Philippe Raimbourg Directeur de l’Ecole de Management de la Sorbonne (Université Panthéon-Sorbonne) Professeur affilié à ESCP Business School
Si depuis Irving Fisher, on sait que la valeur d’un actif se confond avec la valeur actualisée des flux financiers qu’il est susceptible de générer, on sait aussi que le processus d’actualisation érode fortement les flux de long terme et réduit d’autant l’attrait des projets de maturité importante.
CE RÉSULTAT EST LA CONSÉQUENCE D’UN DOUBLE PHÉNOMÈNE :
• le passage du temps qui, mécaniquement, rabote la valeur actuelle de tous les flux éloignés, • mais aussi, la forme de la structure des taux selon le terme qui conduit généralement à retenir des taux d’actualisation d’autant plus élevés que leur échéance est lointaine ; on constate en effet, habituellement, que la yield curve est croissante avec la maturité du flux considéré.
LE PROCESSUS D’ACTUALISATION ÉRODE FORTEMENT LES FLUX DE LONG TERME
Pour cela, la majorité des entreprises investissent généralement dans des projets de court et moyen terme et laissent les projets de long terme à des organismes étatiques ou proches des Pouvoirs Publics. On cherchera ici à préciser l’éventuel caractère inéluctable de ce constat et sous quelles conditions les taux de long terme peuvent être moins pénalisants que ceux de court terme. Cela nous amènera dans un premier temps à préciser la notion de « taux d’actualisation d’équilibre ».
LE TAUX D’ACTUALISATION D’ÉQUILIBRE
On ne traite ici que du taux sans risque, avant prise en compte d’une éventuelle prime de risque. Dans un contexte de maximisation du bien-être inter-temporel des agents économiques, le taux d’actualisation d’équilibre est celui qui permet à un agent de choisir entre un investissement (c’est-à-dire une diminution de son bien-être immédiat résultant d’une réduction de sa consommation au temps 0 au profit d’une épargne autorisant l’investissement) et une consommation future, fruit de l’investissement réalisé.
ON MONTRE AISÉMENT QUE DEUX COMPOSANTES DÉTERMINENT LE TAUX D’ACTUALISATION D’ÉQUILIBRE :
• le taux de préférence pour le présent des agents économiques ; • un éventuel effet-richesse qui est positif lorsqu’une croissance de la consommation est attendue.
Le taux de préférence pour le présent (ou encore, taux d’impatience) est un paramètre individuel dont la valeur peut fortement varier d’un individu à l’autre. Cependant, envisagé d’un point de vue macroéconomique, ce taux se situe dans une perspective intergénérationnelle qui nous incite à penser que la valeur de ce paramètre doit être proche de zéro. Aucun argument ne peut en effet justifier que l’on favorise une génération plutôt qu’une autre.
L’effet richesse résulte d’une croissance de l’économie permettant aux agents économiques d’accroître leur consommation au cours du temps. Ces perspectives d’accroissement de la consommation amènent les agents économiques à privilégier le temps présent et à utiliser un facteur d’actualisation d’autant plus élevé qu’ils envisagent un horizon lointain.
Parallèlement à cet éventuel effet richesse, on comprend aussi que le taux d’actualisation d’équilibre dépend des caractéristiques et des choix des agents. Il se peut qu’ils préfèrent fortement lisser dans le temps leur consommation, ou au contraire qu’ils n’éprouvent aucune aversion face à une éventuelle inégalité de la distribution inter-temporelle de leur consommation. Techniquement, une fois la fonction d’utilité des consommateurs connue (ou supposée), c’est le degré de curvature de cette fonction qui nous fournira le coefficient d’aversion R des consommateurs au risque de déséquilibre inter-temporel de leur consommation.
Si ce coefficient est égal à 1, cela signifie que le consommateur sera prêt à réduire sa consommation d’une unité au temps 0 en vue de bénéficier d’une unité de consommation supplémentaire au temps 1. Un coefficient de 2 signifierait qu’il est prêt pour cela à réduire sa consommation de 2 unités au temps 0. Il est raisonnable de penser que R est compris entre 1 et 2.
Dans cet te perspective, Ramsey en 1928 a proposé une formulation tout à la fois simple et éclairante du taux d’actualisation d’équilibre. En retenant une fonction puissance pour mesurer l’utilité perçue par le consommateur, il a montré que l’effet richesse dans la formation du taux d’actualisation d’équilibre était égal au produit du taux de croissance nominal par période de l’économie et du coefficient d’aversion R des consommateurs. Il est ainsi conduit à la relation suivante :
r = δ + gR
où r est le taux d’actualisation d’équilibre, δ le taux d’impatience, g le taux de croissance nominal par période de l’économie et R le coefficient d’aversion des consommateurs au risque de déséquilibre inter-temporel de leur consommation.
En admet tant une valeur très faible pour δ et une valeur proche de l’unité pour R, on voit que le taux de croissance nominal de l’économie constitue une valeur de référence pour le taux d’actualisation d’équilibre. Ce taux d’actualisation d’équilibre, comme cela a été précisé, est le taux sans risque qui doit être utilisé pour valoriser des actifs sans risque ; si l’on s’intéresse à des actifs risqués, il faut bien sûr lui adjoindre une prime de risque.
Dans le contexte actuel, la relation de Ramsey permet d’apprécier l’ampleur des effets des politiques non conventionnelles des banques centrales qui ont fait émerger sur les marchés financiers un taux sans risque proche de 0%.
LE TAUX D’ACTUALISATION DE LONG TERME
La notion de taux d’actualisation d’équilibre étant précisée, on peut maintenant aborder la question de la structure des taux d’actualisation selon leur terme.
On vient de voir que le taux d’actualisation est déterminé par le taux d’impatience des consommateurs, leur coefficient d’aversion R et les anticipations de taux de croissance de l’économie. En considérant comme négligeable le taux d’impatience et en supposant que le coefficient d’aversion reste inchangé au cours du temps, cela confère un rôle très important aux perspectives économiques : le taux d’actualisation selon la maturité va principalement refléter les attentes des agents économiques en matière de taux de croissance futur.
Ainsi, si l’on anticipe une croissance économique à un taux constant g, la structure des taux selon le terme sera plate. Si l’on anticipe une accélération de la croissance (une croissance du taux de croissance), la structure des taux sera croissante avec la maturité. En revanche, si l’on s’attend à une décélération de la croissance, la structure des taux sera décroissante.
On perçoit ainsi la fonction informative de la structure des taux selon le terme qui permettra de renseigner l’observateur sur les anticipations des opérateurs du marché financier en matière d’anticipations du taux de croissance de l’économie.
ON VOIT AUSSI QUE LA PÉNALISATION DES CASH FLOWS DE LONG TERME PAR LE PROCESSUS D’ACTUALISATION N’EST PAS INÉLUCTABLE.
Lorsque les perspectives économiques sont baissières, la structure des taux devrait être décroissante. Mais il ne faut pas forcément en déduire que cette forme de la yield curve est synonyme de catastrophe annoncée. Elle peut très bien correspondre à un retour à la normale après une période de surchauffe. Par exemple, pour revenir à l’actualité, si le taux de croissance de l’économie est particulièrement élevé du fait de phénomènes de rattrapage, et marque un écart important par rapport au taux de croissance soutenable dans le long terme, la structure des taux devrait être décroissante et le taux d’actualisation court plus élevé que le taux d’actualisation applicable à des échéances plus lointaines.
Ce n’est que l’action des banques centrales, surtout perceptible sur des échéances courtes, qui empêche aujourd’hui une telle observation statistique.
Quand amélioration ne rime pas forcément avec simplification
Aujourd’hui, même si l’affirmation vaut plus pour les pays développés que pour les émergents, le panorama économique est a priori plus favorable. L’épidémie est en passe de se transformer en endémie, la reprise économique est considérée comme devant être durable, avec un retard de croissance accumulé durant la crise de la COVID le plus souvent comblé, et, dernier point et non des moindres, les prix accélèrent.
Ce dernier mouvement est même spectaculaire, avec un glissement sur un an des prix à la consommation, passé respectivement en l’espace de deux ans (du début 2020 au début 2022) de 1,9% à 7,5% aux Etats-Unis et de 1,4% à 5,1% en Zone Euro. Qui plus est cette accélération est plus forte et dure plus longtemps que l’idée qu’on se faisait des implications de la réouverture d’une économie, préalablement entravée par les mesures prises de santé publique, sur le profil des prix.
Face à ces dynamiques sur le double front sanitaire et de l’économie réelle, les regards jetés sur les initiatives à prendre par les banques centrales ont évolué. Les marchés de capitaux réclament une normalisation rapide des politiques monétaires : arrêt de la hausse, puis réduction, de la taille des bilans et retour des taux directeurs vers des niveaux jugés plus normaux. Ce qui ne va pas sans créer tant des pressions haussières et des déformations des courbes des taux que de pertes de repères sur les marchés d’actions.
Faisons à ce stade un petit rappel, pour prendre la mesure du chemin à éventuellement parcourir. Durant la crise épidémique, les principales banques centrales occidentales (Fed américaine, BCE en Zone Euro, Banque du Japon et Banque d’Angleterre) ont accepté de gonfler de façon spectaculaire la taille de leur bilan. A elles-quatre, le ratio bilan/PIB est passé de 36% au début de 2020 à 60% à la fin de 2021. Il s’agit de la contrepartie des obligations achetées et des liquidités injectées dans les systèmes bancaires respectifs. Dans le même temps, les taux directeurs ont été positionnés ou maintenus le plus bas possible (en fonction des caractéristiques économiques et financières propres à chaque pays ou zone) : à +0,25% aux Etats-Unis, à -0,50% en Zone Euro, à-0,10% au Japon et à +0,10% au Royaume-Uni. Ce couple d’initiatives répondait à l’ambition d’assurer les conditions monétaires et financières les plus favorables. Il a « complémenté » les actions prises par les administrations publiques : souvent des prêts garantis aux entreprises et des mesures de chômages techniques en parallèle d’un soutien important à l’économie (de l’ordre de 4,5 points de PIB en moyenne pour la zone OCDE ; attention les deux types de mesures peuvent en partie se recouper).
Essayons maintenant de poser le débat de politique monétaire. Le net rebond de la croissance économique en 2021, le sentiment largement partagé que l’activité se maintiendra sur une tendance haussière et une évolution des prix qui a du mal à rentrer dans le rang forment un tout qui justifie de démarrer le processus de normalisation du réglage monétaire. Bien sûr, le calendrier et le rythme dépendent des conditions propres à chaque géographie.
IL FAUT TOUTEFOIS AVOIR CONSCIENCE DU CARACTÈRE « ORIGINAL » DE LA SITUATION ACTUELLE.
La dynamique inflationniste du moment n’est pas avant tout le reflet d’une demande trop forte, qui viendrait buter sur des capacités d’offre pleinement utilisées. Elle traduit plutôt, et pour beaucoup, des appareils de production et de distribution qui ne peuvent fonctionner à un régime optimal, à cause de la désorganisation induite par la crise épidémique et parfois aussi par les réponses apportées par les politiques publiques. Ce retour à la normale, si possible rapidement, est une nécessité ; sauf à accepter des pertes durables de capacités d’offre. A ce titre, il faut être attentif à ce que le chemin vers la neutralité monétaire ne soit pas emprunté avec une « vitesse » excessive. Au risque sinon d’une perte de portance de la croissance économique et d’un brusque décrochage des marchés financiers, qui feraient l’un et l’autre s’éloigner du but recherché.
Un autre point, même s’il est d’une facture plus classique, doit être mentionné. L’accélération des prix à la consommation n’est pas sans incidence sur les ménages. Elle grignote leur pouvoir d’achat et agit négativement sur leur confiance ; toutes choses qui militent en faveur d’un ralentissement de la consommation privée et, par-delà, de l’activité économique.
IL Y A ICI UN ÉLÉMENT SUPPLÉMENTAIRE EN FAVEUR DU GRADUALISME DANS LA CONDUITE DE CE PROCESSUS DE NORMALISATION MONÉTAIRE.
Comment les deux « grandes » banques centrales, que sont la Fed américaine et la BCE européenne, s’y prennent-elles pour tracer leur chemin sur cette piste, balisée d’un côté par l’impatience des marchés de capitaux et de l’autre par la nécessaire prise en compte du caractère original du moment présent et du doigté que cela implique dans la conduite de la politique monétaire ?
Il reste alors à observer une certaine « marche en crabe » de la Fed et de la BCE. Expliquons-nous et commençons par la banque centrale américaine. La phrase-clé du communiqué publié au sortir du plus récent comité de politique monétaire du 26 janvier est sans doute la suivante : « Avec l’inflation bien supérieur à 2 % et un marché du travail vigoureux, le comité s’attend à ce qu’il soit bientôt approprié de relever la fourchette cible du taux des fonds fédéraux ». Sans surprise, le taux directeur a bien été relevé de 25 centimes le 16 mars, et comme il n’y a plus de forward guidance (guidage prospectif), le rythme de la normalisation monétaire sera data dependent (calé sur l’image de l’économie dessinée par les indicateurs conjoncturels les plus récemment publiés). Dans un tout premier temps, l’attention portera prioritairement sur le profil des prix. Puis, l’importance accordée au profil de l’activité ira croissante.
Le marché, avec l’idée qu’il se fait de la croissance et de l’inflation, est prompt à anticiper un rythme rapide de remontée du taux directeur. La Fed, après avoir donné son aval à l’initialisation du mouvement, tente d’en contrôler le tempo. Ce qui n’est pas très facile !
Passons à la BCE. Le marché a retenu deux choses de la réunion du Conseil des gouverneurs du 3 février : les risques concernant les évolutions à venir de l’inflation sont orientés à la hausse et la possibilité d’une hausse du taux directeur dès cette année n’est pas écartée.
Bien sûr, l’analyse proposée était davantage balancée et depuis tant Christine Lagarde que certains autres membres du Conseil, comme François Villeroy de Galhau, s’emploient à modérer des anticipations de marché sans doute considérées comme excessives.
On le perçoit bien ; tout va être question de bon calendrier et de bon rythme dans cet exercice de normalisation qui démarre. In medio stat virtus, nous rappelle Aristote. Mais oh combien la déclinaison peut être difficile !
IMPACT DE L’INVASION DE L’UKRAINE PAR LA RUSSIE : NÉCESSAIRE RÉVISION DU DIAGNOSTIC CONJONCTUREL DANS UN SENS MOINS FAVORABLE
• Le monde hors Russie, singulièrement l’Europe, ne « passera pas entre les gouttes ». La poursuite de l’accélération des prix et un repli de la confiance en sont les ingrédients principaux. Ainsi, le prix du pétrole brut a augmenté de plus de 30% (+35 dollars par baril) depuis le début des opérations militaires et celui du gaz « européen » a presque doublé. De même, il n’est pas possible d’extrapoler le rebond des indices PMI de beaucoup de pays en février ; ce n’est plus que de l’histoire ancienne. La croissance va ralentir et l’inflation se faire plus vive ; avec des Etats-Unis moins pénalisés que la Zone Euro.
• Il est possible que la vigilance (la prudence) doive être encore plus grande. Ce nouveau choc (dont l’ampleur n’est pas encore connu) vient ébranler un système économique toujours convalescent : la crise épidémique, suivie d’un difficile rééquilibrage offre –demande qui crée une dynamique haussière des prix inusitée si on prend comme référence les décennies les plus récentes. Sa résistance est-elle plus faible à ce titre ?
• Dans ces conditions, la normalisation monétaire se fera plus graduelle qu’anticipée. Les banques centrales devraient « enjamber » le renchérissement des produits énergétiques (et aussi alimentaires) et se focaliser davantage sur la dynamique des prix hors ces deux composantes ; ce qu’on appelle le noyau dur. L’hypothèse la plus probable est que celui-ci connaisse un tempo moins marqué qu’escompté ; avant tout du fait d’une demande moins bien orientée.
In light of the current context, this month’s edition of the Economic Brief will focus on the relationship between war and the economy. In particular, we will look into links between the two; we will delve into economic theory in relation to war; and we will examine some of the impacts of the ongoing crisis in Ukraine on the world economy.
Bruno Husson, docteur d’État en Finance et Associé honoraire chez Accuracy, publie un nouvel ouvrage en janvier 2022 sur l’analyse financière et l’évaluation d’entreprise. Une double approche théorique et pratique novatrice.
Paru le 5 janvier aux éditions Presses Universitaires de France (PUF), le nouveau livre de Bruno Husson, Analyse financière et évaluation d’entreprise, propose une approche renouvelée de l’analyse financière et de l’évaluation d’entreprise, à la fois dense sur le plan théorique et riche sur le plan pratique.
Accuracy a réalisé les travaux de due diligence financière pour Boralex dans le cadre de son accord avec Energy Infrastructure Partners pour accompagner la mise en œuvre de son Plan stratégique en France.
Accuracy conducted financial due diligence for Boralex in the context of its agreement with Energy Infrastructure Partners to support the implementation of its Strategic Plan in France.
In this first edition of the Economic Brief in 2022, we look into some of the significant factors currently affecting the global economy. We start with COVID-19, its development, and a new mentality taking hold. We then move on to the Purchasing Managers Index to see what it tells us of the level of confidence in economic activity across three major zones. Finally, we take a closer look at inflation and the structural developments that are set to affect prices in the future.
Accuracy supported House of HR with the acquisition of the Dutch company TMI, a company specialised in secondment and recruitment in health care. With the TMI acquisition, House of HR aims to increase its presence in the healthcare sector a market in which the group has long wanted to position itself on a larger scale. The acquisition of TMI is a significant step in realizing the objective for setting up a specialized branch of HR services for health care within the group.
Our partners Morgan Heavener, Frédéric Loeper, and Darren Mullins authored an Expert Analysis Chapter for the International Comparative Legal Guide – Corporate Investigations 2022. The chapter, New Frontiers in Compliance Due Diligence: Data Analytics and AI-Based Approaches to Reviewing Acquisition Targets, shares their insights regarding the increasing regulatory and practical requirements for conducting compliance-related due diligence and more sophisticated ways to approach such due diligence.
In these
critical and unprecedented circumstances that we are all experiencing, our
priority is to preserve the health of our teams, whilst continuing our activity
with the same exacting standards and high quality that you have come to know.
Some of our
offices in Asia have been affected for several months already and have
demonstrated the resilience of our firm. We put