Catégories
Actualité Economie En vedette

Le Japon, nouveau hub des semi-conducteurs

Le « déclin » japonais dans les semi-conducteurs est souvent raconté comme une fable morale : hubris des années 1980, choc du Plaza Accord en 1985, éclatement de la bulle, sclérose des conglomérats, puis effacement face à la Silicon Valley, Taïwan et la Corée. Ce récit est séduisant parce qu’il est simple.

L’industrie des semi-conducteurs n’est pas un marché unique ; c’est une superposition de couches : matériaux, chimie, équipements, procédés, fabrication, design, logiciels, intégration système. Lire l’histoire japonaise uniquement à travers les parts de marché finales revient à ignorer cette stratification.

L’âge d’or : la victoire par la discipline industrielle

Historiquement, la domination japonaise s’est ancrée dans un modèle spécifique : l’État développeur, la coopération étroite entre administrations, banques et keiretsu, et une obsession de la qualité industrielle.

Dans les années 1970-1980, la victoire dépend avant tout de la discipline de procédé, du rendement, du contrôle qualité et des volumes. La DRAM la mémoire est alors le « pétrole » de la première ère informatique : une commodité indispensable, tirée par des cycles massifs d’investissement.

C’est le terrain naturel du Japon : industrialisation rigoureuse, sous-traitance ultra spécialisée, culture du zéro défaut, accumulation de savoir tacite. À la fin des années 1980, le Japon dépasse 50 % de parts de marché mondiales. En 1989, six des dix plus grands fabricants de puces sont japonais. NEC, Toshiba et Hitachi dominent la mémoire mondiale.

La véritable rupture intervient dans les années 1990. La valeur se déplace de la mémoire commoditisée vers la logique, où l’avantage compétitif repose de plus en plus sur la conception, les architectures, les outils logiciels et les écosystèmes.

C’est le passage d’un capitalisme de la machine à un capitalisme de la propriété intellectuelle.

Taïwan perfectionne le modèle fabless/foundry à grande échelle : la fabrication devient un service. Les États-Unis consolident leur avance en design, en EDA et en capital-risque. La Corée industrialise la mémoire avec une agressivité capitalistique exceptionnelle.

Le Japon, fidèle à son modèle d’intégration verticale, tarde à s’adapter à cette nouvelle logique de plateforme. Il perd du terrain sur la logique et les produits grand public donc la vitrine.

La retraite stratégique vers les intrants critiques

Pourtant, parler d’effacement est trompeur. Le Japon change de terrain.

Plutôt que de s’épuiser dans une compétition défavorable, il se repositionne sur les intrants critiques : chimies ultra pures, photo-résines, wafers, découpe de précision, inspection de masques, métrologie, équipements de dépôt et de gravure, contrôle des contaminants.

Ces segments sont difficiles à commoditiser. Ils reposent sur des décennies de savoir-faire tacite et d’itérations invisibles. Le Japon ne quitte pas l’industrie : il change d’étage.

Ce déplacement, longtemps interprété comme un recul, apparaît aujourd’hui comme une relocalisation stratégique vers les goulots d’étranglement de la chaîne mondiale. On ne fabrique pas de puces de pointe sans intrants japonais. Le Japon ne disparaît pas : il devient indispensable.

Géopolitiquement, il s’agit d’un déplacement du pouvoir. Au lieu de vendre le produit final, le Japon devient indispensable au produit final.

Plus la production se concentre dans quelques hubs notamment à Taïwan plus la dépendance envers certains intrants augmente. À mesure que les nœuds technologiques avancent (EUV, tolérances atomiques, exigences de pureté extrême), l’importance des fournisseurs de « chokepoints » grandit.

Plus l’industrie se sophistique, plus le Japon redevient central, car la sophistication est précisément son terrain.

Un nouveau point d’inflexion géopolitique

L’architecture géopolitique qui a permis à Taïwan de devenir la fonderie centrale du monde démocratique paraît aujourd’hui fragile. Le « bouclier de silicium » ressemble de plus en plus à une cible.

Ce moment n’est pas une simple histoire de rattrapage japonais, mais une fenêtre d’opportunité. Les vents géopolitiques, les arbitrages énergétiques et la réactivation de la politique industrielle créent les conditions d’un pivot structurel.

C’est dans ce contexte qu’émerge le projet Rapidus, consortium soutenu par l’État visant la production de puces de 2 nanomètres à Hokkaidō.

Certes, la part de marché japonaise est passée de plus de 50 % à la fin des années 1980 à environ 10 % en 2019. Aucun groupe japonais ne figure aujourd’hui parmi les dix premiers mondiaux en revenus. Mais cette lecture masque une réalité plus nuancée.

Le Japon demeure compétitif dans plusieurs segments clés : mémoire NAND, semi-conducteurs de puissance, microcontrôleurs, capteurs d’image CMOS. Surtout, il conserve une position dominante dans de nombreux intrants critiques.

L’histoire n’est donc pas celle d’un effondrement, mais d’une mutation : le passage d’une puissance visible de produits finis à une puissance structurelle des infrastructures invisibles. Dans un monde où la résilience des chaînes d’approvisionnement devient stratégique, cette invisibilité pourrait bien redevenir un avantage décisif.

La panique américaine face à la montée japonaise

Le volume massif de production japonaise dans les années 1970-1980 était si écrasant qu’il déclencha une véritable panique à Washington. À mesure que le Japon gagnait en dynamisme économique, les décideurs américains commencèrent à le percevoir comme un concurrent stratégique majeur.

Ils s’inquiétaient notamment du fait que des entreprises japonaises, soutenues par des subventions à l’exportation, inondaient le marché américain de puces et d’électronique grand public afin d’évincer les acteurs américains, tout en maintenant un accès limité au marché japonais.

L’accord de 1986 : un commerce administré

Face au mécontentement croissant, les États-Unis firent pression sur Tokyo, aboutissant à l’Accord nippo-américain sur les semi-conducteurs.

Cet accord autorisait Washington à imposer des prix minimums sur les puces vendues aux États-Unis et exigeait que la part étrangère du marché japonais des semi-conducteurs passe de 10 % à 20 %.

Conçu comme un accord de commerce administré visant à empêcher le « dumping », il eut un double effet : il affaiblit la compétitivité japonaise à l’export et facilita l’ascension de concurrents américains, sud-coréens et taïwanais.

Les entreprises américaines, se recentrant sur la conception, commencèrent progressivement à confier leur production à des fondeurs comme TSMC.

L’effet domino : l’électronique grand public en crise

Selon Shuhei Yamada, professeur à l’université J.F. Oberlin de Tokyo, une autre cause du déclin réside dans la perte de compétitivité des géants japonais de l’électronique grand public comme Toshiba et Hitachi.

Engagées dans une guerre des prix avec la Chine, ces entreprises virent leurs ventes chuter ce qui réduisit simultanément la demande interne pour leurs propres semi-conducteurs.

Les divisions électronique et semi-conducteurs, interdépendantes, « se tiraient mutuellement vers le bas ». Faute de capitaux suffisants, les groupes hésitaient à se spécialiser ou à abandonner certaines activités, freinant leur adaptation.

L’industrie des semi-conducteurs est soumise à des cycles violents hauts et bas tous les trois à quatre ans exigeant des investissements massifs et continus.

Même en période de ralentissement, les leaders mondiaux poursuivent leurs investissements pour ne pas perdre de temps technologique.

Les entreprises japonaises, plus prudentes, peinaient à soutenir cette stratégie agressive. Comme l’expliqua Jim Hamajima, président de SEMI Japon et ancien dirigeant de Tokyo Electron, investir massivement dans les puces paraissait risqué comparé à leurs activités traditionnelles.

Pendant ce temps, les acteurs coréens comme Samsung Electronics et SK Hynix adoptaient une stratégie d’investissements massifs, avec des décisions plus rapides et des coûts plus bas.

Des fusions sans leadership

Dans les années 1990, les entreprises japonaises tentèrent de survivre par la consolidation. Mais les fusions échouèrent souvent faute de leadership fort.

Les entités fusionnées continuaient d’agir comme deux entreprises distinctes, ralentissant les décisions stratégiques dans un secteur où la vitesse était devenue cruciale.

À la fin des années 1990, le modèle dominant évolua : on passa d’entreprises verticalement intégrées à des acteurs spécialisés, soit dans la conception, soit dans la fabrication.

Fondée en 1987, TSMC initia le modèle de la fonderie « pure-player », séparant conception et production.

Pour les entreprises japonaises, habituées au modèle intégré concevoir et fabriquer cette séparation paraissait presque hérétique. Pourquoi concevoir un produit que l’on ne fabrique pas soi-même ?

Pendant que la Silicon Valley, avec Intel, et Taïwan redéfinissaient la structure de l’industrie, le Japon continuait d’optimiser le rendement manufacturier.

Résultat : le pays perdit progressivement le marché de la logique, puis celui de la mémoire standardisée.

Le véritable coup fatal : le dilemme de l’innovateur

Le problème central ne fut pas seulement commercial, mais stratégique : le dilemme de l’innovateur.

Les keiretsu japonais étaient des géants intégrés produisant aussi bien des puces que des aspirateurs ou des centrales nucléaires. Lorsque l’avantage compétitif passa de la discipline industrielle à l’architecture et au logiciel, ils restèrent focalisés sur l’excellence matérielle.

Ils perfectionnaient le hardware pendant que l’écosystème mondial réécrivait les règles du jeu.

Pourtant, le Japon ne disparut pas. Il remonta dans la chaîne de valeur.

Plutôt que de mener une guerre perdue sur les puces standardisées, les entreprises japonaises se concentrèrent sur les équipements et matériaux difficiles à standardiser, reposant sur le savoir tacite — le monozukuri.

Aujourd’hui, le Japon détient plus de 50 % du marché mondial des matériaux pour semi-conducteurs. Dans certains segments critiques, comme les résines photosensibles EUV, cette part frôle les 100 %.

On ne peut pas produire une puce avancée chez TSMC sans les matériaux de Shin-Etsu Chemical.
On ne peut pas traiter un wafer sans Tokyo Electron.
On ne peut pas découper un lingot de silicium sans Disco Corporation.

Le Japon n’a donc pas quitté l’industrie : il en contrôle désormais les fondations invisibles.

Par exemple, le Japon détient 88 % de part de marché mondiale pour les coatters/révélateurs (Tokyo Electron, Screen Holdings), 53 % pour les plaquettes en silicium (Shin-Etsu Chemical, Sumco) et 50 % pour les photorésistans (Shin-Etsu, JSR, Tokyo Ohka Kogyo).

En effet, il ne faut pas enterrer les compétences exceptionnelles du Japon en matière d’outils et de matériaux nécessaires aux techniques de fabrication de puces les plus avancées, les fournisseurs japonais figurant souvent parmi les meilleurs au monde dans leurs domaines de spécialisation.

  • Lithographie EUV : le Japon produit une grande partie des équipements qui rendent possible l’utilisation de la lithographie ultraviolette extrême (EUV) pour la fabrication de puces aux nœuds technologiques avancés. Tokyo Electron (TEL), entreprise japonaise, détient la quasi-totalité du marché mondial des systèmes de revêtement/développement en ligne pour l’EUV, la technique de lithographie que Rapidus utilisera pour fabriquer des puces de 2 nm.
  • Empilage de puces : TEL collabore étroitement avec IBM pour permettre la première empilage de puces au monde sur des plaquettes de 300 mm. TEL est fortement implantée au sein du Centre des sciences et de l’ingénierie à l’échelle nanométrique d’Albany (CNSE), à Albany, dans l’État de New York, en y détachant des centaines d’employés.
  • Photomasques : les entreprises japonaises JEOL et NuFlare détiennent 91 % du marché mondial de la fabrication de masques pour la lithographie EUV.
  • Traitement des résines photosensibles : les entreprises japonaises TEL et SCREEN détiennent 96 % du marché mondial des équipements nécessaires au traitement des résines photosensibles.
  • Résines photosensibles haut de gamme : Quatre entreprises japonaises, Shin-Etsu Chemical, Tokyo Ohka Kogyo, JSR et Fujifilm Electronic Materials, représentent 75 % de la production mondiale de résines photosensibles haut de gamme destinées à la fabrication de puces de pointe et détiennent un quasi-monopole sur les résines photosensibles nécessaires à la fabrication de dispositifs par lithographie EUV. Une cinquième entreprise japonaise, Sumitomo Chemicals, est récemment entrée sur le marché de la production de résines photosensibles.
  • Usinage de cristaux sur plaquettes : Les entreprises japonaises Accretech, Okimoto, Toyo et Disco détiennent 95 % du marché mondial des équipements nécessaires à l’usinage de cristaux sur plaquettes. Les entreprises japonaises Rorze, Daifuku et Muratech détiennent quant à elles 88 % du marché mondial des équipements de manipulation de plaquettes.
  • Matériaux semi-conducteurs : Le Japon est le premier producteur mondial de matériaux semi-conducteurs, un statut qu’il occupe depuis des décennies, détenant plus de 50 % des parts de 14 des matériaux les plus critiques nécessaires à la fabrication de puces, notamment les photomasques, la photorésine et les plaquettes de silicium.
  • Conditionnement 3D des puces : Les fournisseurs japonais de matériaux pour semi-conducteurs, dont Nissan Chemical et Showa Denko, investissent massivement dans le développement et la production des matériaux nécessaires au conditionnement 3D des puces. En 2024, Nissan Chemical lancera la production en série d’un adhésif de collage temporaire utilisé dans le conditionnement 3D pour maintenir les plaquettes de silicium sur les substrats de verre pendant le polissage et l’empilement, tout en permettant leur retrait sans dommage.
  • Plaquettes de silicium : les entreprises japonaises de matériaux SUMCO et Shin-Etsu Chemical détiennent à elles deux 60 % du marché mondial des plaquettes de silicium, essentielles à la fabrication des puces.

L’erreur consiste à supposer que parce que le Japon a perdu la guerre B2C des puces, il a perdu les compétences. Ce n’est pas le cas.

La « mémoire musculaire » de l’ingénierie de précision est toujours là, encapsulée dans les entreprises de matériaux, d’équipements et de procédés. Le projet Rapidus vise précisément à libérer cette capacité latente et à la réappliquer à la fabrication de puces logiques avancées.

Pourquoi maintenant ? La tarification du risque systémique

Pourquoi le gouvernement japonais injecte-t-il soudainement des milliers de milliards de yens dans un secteur qu’il semblait avoir délaissé ?

La réponse tient en un mot : le risque.

Pendant quarante ans, la chaîne d’approvisionnement mondiale des semi-conducteurs a été optimisée pour l’efficacité. Le « Juste-à-Temps » était la doctrine dominante. Peu importait le lieu de production, tant que les puces étaient fiables et peu coûteuses.

Cette logique a concentré près de 90 % de la production de puces avancées sur une île que la Chine considère comme une province renégate.

Puis survint la pandémie de COVID-19. Puis les pénuries de puces, qui forcèrent notamment Toyota à interrompre ses chaînes de production. Puis la prise de conscience à Washington comme à Tokyo : si le détroit de Taïwan se ferme, l’économie mondiale s’arrête.

Nous sommes passés du « Juste-à-Temps » au « Juste-au-Cas ».

La théorie du « bouclier de silicium » selon laquelle Taïwan serait trop stratégique pour être attaquée s’est inversée. La concentration extrême des capacités de production est désormais perçue comme un risque systémique.

Bien avant la pandémie, le ministère japonais de l’Économie, du Commerce et de l’Industrie (METI) avait engagé, dès 2019, des discussions pour attirer TSMC au Japon.

Le risque de conflit en Asie de l’Est, ainsi que la possibilité d’instrumentaliser les interdépendances via des contrôles à l’exportation, ont transformé la production nationale de semi-conducteurs en enjeu de sécurité nationale.

De la résilience industrielle à la sécurité économique

Le Japon disposait déjà d’une culture de gestion du risque forgée par les catastrophes naturelles. Après le COVID, les entreprises ont renforcé leurs systèmes de gestion de chaîne d’approvisionnement : multi-approvisionnement, partage accru d’informations avec les fournisseurs, constitution de stocks stratégiques.

Au niveau national, la politique industrielle s’inscrit désormais dans une vision plus large de sécurité économique.

En juin 2021, le METI a annoncé une nouvelle stratégie pour les industries des semi-conducteurs et du numérique. Elle repose sur trois piliers :

  1. Création de bases de production nationales.
  2. Alliances technologiques de nouvelle génération avec les États-Unis.
  3. Développement de technologies d’avenir révolutionnaires.

Les projets internationaux de TSMC offrent un test comparatif éclairant.

  • L’usine de Kumamoto (annoncée en octobre 2021) a atteint la production de masse en décembre 2024 environ 38 mois.
  • L’usine d’Arizona (annoncée en mai 2020) n’a atteint la production initiale qu’au début de 2025 environ 57 mois, soit 50 % plus lent, malgré des subventions plus importantes.

Les difficultés rencontrées aux États-Unis pénuries de main-d’œuvre, frictions culturelles, complexité réglementaire illustrent combien il est difficile de recréer une culture manufacturière avancée.

Les États-Unis conservent des leaders du design comme Nvidia et Apple, mais ont largement externalisé le monozukuri.

Le Japon comme pivot du « friend-shoring »

Le Japon représente un arbitrage stratégique idéal :

  • Alliée politique des États-Unis.
  • Système institutionnel stable.
  • Yen faible rendant les investissements attractifs.
  • Écosystème industriel encore intact.

Dans cette logique de « friend-shoring », Tokyo attire désormais précisément les entreprises étrangères qui avaient supplanté ses propres champions.

Ces dernières années, des subventions publiques substantielles ont convaincu des acteurs majeurs comme TSMC, Micron Technology et Samsung Electronics d’investir au Japon. Pour certains projets notamment celui de Samsung le soutien gouvernemental représente environ 50 % de l’investissement total.

Dans ce contexte, Rapidus incarne l’ambition la plus audacieuse : réintroduire au Japon la fabrication de puces logiques de pointe (2 nm).

Il ne s’agit pas simplement de subventions, mais d’un repositionnement stratégique face à la fragmentation géopolitique.

Le Japon n’essaie pas de recréer le monde des années 1980. Il tente de devenir le nœud redondant indispensable d’une infrastructure informatique occidentale désormais pensée en termes de résilience plutôt que d’efficacité pure.

L’histoire n’est donc pas celle d’un retour nostalgique, mais celle d’une revalorisation stratégique d’un savoir-faire qui n’avait jamais disparu.

Parmi les nouveaux investisseurs étrangers figure le fabricant américain de puces mémoire Micron, qui a annoncé en 2023 investir jusqu’à 3,7 milliards de dollars dans son usine de puces mémoire dynamique à accès aléatoire (DRAM) à Hiroshima au cours des prochaines années, une préfecture occidentale sur l’île principale du Japon.

Samsung de Corée du Sud a annoncé à la fin 2023 qu’elle installerait un centre de recherche et développement à Yokohama, une ville côtière près de Tokyo, estimant y dépenser 280 millions de dollars dans les cinq prochaines années.

DerDernièrement, en février 2026, la décision de TSMC de produire des puces 3 nanomètres dans sa deuxième usine de Kumamoto, sur l’île de Kyushu, a marqué une rupture qualitative dans la stratégie japonaise des semi-conducteurs.

Initialement pensée pour des nœuds intermédiaires (6–12 nm) à destination de l’automobile et des télécommunications, cette implantation bascule désormais dans le champ des technologies avancées, directement mobilisables pour l’intelligence artificielle, la robotique et les systèmes autonomes.

Pourquoi le 3 nm change la donne

La technologie 3 nanomètres est l’ancêtre direct de la technologie 2 nanomètres, dont la commercialisation est actuellement en compétition entre TSMC et Samsung. Des lignes de circuit plus fines permettent de réduire la consommation d’énergie et d’accélérer la vitesse de traitement.

Le passage au 3 nm ne relève pas d’un simple saut incrémental. Il s’agit d’un nœud “leading edge”, exigeant une maîtrise industrielle avancée (EUV, rendements élevés, supply chain ultra-spécialisée) et permettant des gains substantiels en densité de transistors, en performance et en efficacité énergétique.

Bien que TSMC produise déjà des puces encore plus avancées (2 nm) à Taïwan, le 3 nm demeure une technologie clé pour les usages IA à grande échelle.

Cette annonce doit être lue avec prudence sur le plan temporel : la montée en puissance industrielle à Kumamoto prendra plusieurs années, avec des livraisons en volume plutôt attendues vers 2028.

Le Japon ne capte donc pas l’avant-garde immédiate, mais sécurise une capacité avancée future ce qui est précisément l’horizon pertinent en matière de sécurité économique.

Kumamoto comme preuve d’efficacité industrielle

TSMC a achevé la construction de sa première usine dans la préfecture de Kumamoto en 2024, lançant ainsi la production en série de semi-conducteurs 12 nanomètres.

D’après des éléments rapportés par la presse économique asiatique, TSMC estime que ses expansions au Japon ont de meilleures chances d’atteindre le seuil de rentabilité plus tôt que certains investissements comparables aux États-Unis et en Europe, en raison d’un meilleur “fit” opérationnel : efficacité de la chaîne d’approvisionnement, intégration industrielle locale, accès aux talents, satisfaction client.

Et contrairement à d’autres environnements, le Japon dispose d’une main-d’œuvre qui comprend culturellement les exigences de la fabrication de semi-conducteurs.

Rapidus est le pari lunaire du gouvernement japonais. L’objectif est de produire en masse des puces de 2 nanomètres d’ici 2027.

Rapidus se positionnera comme une fonderie de pointe, mais ne cherchera pas à concurrencer frontalement TSMC et Samsung sur le marché des composants grand public. Elle se concentrera plutôt sur des technologies de niche spécialisées, lui permettant de justifier des prix plus élevés.

Son atout principal résidera dans sa capacité à livrer rapidement des dispositifs sur mesure à des utilisateurs finaux spécifiques. Le volume de production initial est estimé à 50 000 plaquettes par mois.

Pour situer le contexte : les puces les plus avancées fabriquées aujourd’hui au Japon sont des puces logiques en 40 nanomètres, une technologie d’environ quinze ans. Rapidus vise donc à sauter près de vingt ans de développement en cinq ans.

La rapidité et la personnalisation sont les caractéristiques clés du système de production poursuivi par Rapidus, notamment pour répondre aux besoins flexibles de domaines innovants comme l’IA.

Le processus de fabrication comprend (1) la conception du circuit, (2) le processus front-end (formation du circuit sur la plaquette), et (3) le procédé back-end (découpe, assemblage, packaging).

Comme ces procédés sont souvent répartis entre plusieurs entreprises, même des puces 3 nm peuvent nécessiter près de deux ans entre développement et production. Rapidus veut internaliser davantage (front-end et back-end) et soutenir la conception en exploitant les données industrielles du front-end, afin d’accélérer drastiquement l’itération « comme la différence entre un train classique et un train à grande vitesse ».

Pour réussir, Rapidus doit créer un cluster complet. Des organisations de R&D et des équipementiers mondiaux se positionnent déjà autour du site, afin de soutenir des domaines clés comme l’EUV et les procédés avancés.

Cela correspond à l’évolution du marché : l’ère de l’IA fragmente la demande, avec un passage des CPU généralistes vers des architectures spécifiques à un domaine (ASIC, NPU). L’avenir appartient souvent à des acteurs qui n’ont pas besoin de centaines de millions d’unités, mais d’itérations rapides et de puces spécialisées.

Le goulot d’étranglement : le talent

Le plus grand obstacle reste le capital humain. Les ingénieurs qui ont bâti la domination des années 1980 partent à la retraite, et la longue “période hivernale” du secteur a raréfié la base de compétences.

Certains analystes soulignent qu’une fab exige des centaines d’ingénieurs expérimentés, mais qu’une partie de ceux qui reviennent aujourd’hui dans l’industrie ont déjà plus de cinquante ans, car beaucoup avaient migré vers d’autres secteurs.

Rapidus tente un arbitrage : recruter des profils seniors (les “derniers avant-gardistes”) capables d’apporter un savoir tacite non écrit, tout en formant une nouvelle génération.

En parallèle, Rapidus envoie des jeunes ingénieurs se former à Albany, dans l’État de New York, dans le cadre d’une coopération avec IBM.

IBM a été à l’origine de travaux sur la technologie 2 nm Gate-All-Around (GAA), considérée comme une évolution majeure de l’architecture transistor (nanosheets) permettant un meilleur contrôle électrique que le FinFET.

La relation est symbiotique : IBM apporte de la propriété intellectuelle et des briques technologiques, le Japon cherche à réinjecter la discipline industrielle pour mettre ces innovations à l’échelle.

Le programme japonais repose aussi sur une collaboration étroite entre industrie, gouvernement et universités.

Rapidus bénéficiera du soutien du LSTC (créé fin 2022 pour coordonner la recherche japonaise sur les semi-conducteurs), appuyé par des organismes publics comme l’AIST, Riken et l’Université de Tokyo.

Les thèmes annoncés s’alignent avec les objectifs de Rapidus :

  • conception de circuits de pointe,
  • transistors GAA,
  • production de masse à délai d’exécution rapide (TAT),
  • packaging 3D,
  • matériaux avancés pour GAA et packaging,
  • formation spécialisée de chercheurs et étudiants.

Pourquoi construire à Chitose, Hokkaidō, plutôt qu’à Kyūshū (près de TSMC) ou dans le cœur industriel d’Aichi ?

Votre texte met en avant quatre facteurs structurants :

  • Eau : les fabs consomment énormément d’eau ultra-pure. Hokkaidō dispose de réserves abondantes et de sources adaptées, offrant une “prime de sécurité” dans un monde plus contraint hydriquement.
  • Électricité : une fab 2 nm exige une énergie de base stable. Hokkaidō combine des options (éolien/solaire, potentiel géothermique, et débat local autour de capacités pilotables).
  • Logistique et talents : proximité de Sapporo et d’un aéroport international facilitant l’aller-retour d’ingénieurs, d’équipementiers et de clients.
  • Sécurité : éloignement relatif des points chauds immédiats en Asie de l’Est, et accent sur la protection des infrastructures critiques (votre texte souligne même la proximité d’une base aérienne, comme signal de sécurisation physique).

Conclusion : une renaissance par la résilience

En définitive, la renaissance japonaise des semi-conducteurs n’est pas une tentative nostalgique de recréer les volumes des années 1980. C’est une évolution stratégique adaptée à la réalité des années 2020 : la résilience remplace l’efficacité comme vertu première.

Le Japon a pivoté de l’assemblage final vers la maîtrise des intrants et des goulots d’étranglement de la chaîne mondiale, puis tente désormais avec Rapidus de “boucler la boucle” en revenant sur la fabrication avancée.

Le succès de Rapidus se mesurera commercialement, mais sa logique profonde est aussi géopolitique : réduire les risques, recréer une capacité souveraine, et repositionner le pays sur la prochaine vague d’innovation (IA, calcul haute performance, systèmes autonomes), tout en assumant une trajectoire risquée, coûteuse, et encore incertaine.

Le récit selon lequel le Japon a “perdu la guerre des semi-conducteurs” était prématuré : il jouait un jeu plus long, plus discret et le monde recommence à valoriser exactement ce qu’il offre.

Sources :

TSMC va produire des puces 3 nm au Japon (Kumamoto)

Rapidus et l’objectif des puces 2 nm

Analyse externe sur Rapidus

Informations générales sur l’industrie japonaise des semi-conducteurs

Catégories
Economie En vedette Géopolitique

La Chine, le nouveau modèle économique pour l’Occident ?

La Chine n’a pas simplement gravi les échelons de l’industrie mondiale. Elle a changé d’échelle, puis changé les règles. En 2004, elle ne représentait encore que moins de 9 % de la production manufacturière mondiale.

Vingt ans plus tard, elle en concentre près de 29 %, soit davantage que les États-Unis, le Japon, l’Allemagne et l’Inde réunis.

Mais cette domination ne se limite pas aux volumes. Elle s’exprime dans le commerce mondial, dans la structuration des chaînes de valeur, et désormais dans les rapports de force géopolitiques. En Amérique latine, les principales économies du continent importent aujourd’hui davantage de biens chinois que de biens américains, illustrant un déplacement silencieux du centre de gravité économique mondial.

La clé de cette ascension ne réside pas seulement dans une main-d’œuvre abondante ou des coûts bas. Elle repose sur la maîtrise systémique des intrants critiques, des capacités de transformation et de la montée en gamme technologique. Terres rares, batteries, panneaux solaires, équipements électriques, composants industriels, semi-conducteurs matures : Pékin contrôle les segments où se crée la dépendance stratégique.

Plus de 70 % des terres rares importées par les États-Unis proviennent de Chine. Un avion F-35 ou un sous-marin nucléaire de classe Virginia mobilise des matériaux raffinés quasi exclusivement en Chine. La supériorité militaire américaine repose ainsi, en partie, sur des chaînes de valeur chinoises.

La souveraineté par la production : la leçon stratégique

La souveraineté technologique et géopolitique repose moins sur la finance ou les brevets que sur la capacité à produire, raffiner et déployer à grande échelle. Depuis quarante ans, la Chine a méthodiquement investi ce terrain, devenant successivement l’atelier, l’ingénieur, puis l’architecte du système industriel mondial.

Le revenu par habitant est passé de quelques centaines de dollars à la fin des années 1970 à plus de 13 000 dollars aujourd’hui. Mais le secteur de l’énergie révèle encore mieux l’ampleur du basculement. La Chine représente plus de la moitié des installations solaires mondiales et domine également l’éolien. Environ les trois quarts des projets d’énergie renouvelable en cours dans le monde sont en Chine ou menés par des entreprises chinoises.

Si la Chine génère près de 30 % des émissions mondiales, elle concentre également une part majeure de la croissance des technologies de décarbonation. Elle a démontré que le déploiement massif pouvait rendre les énergies renouvelables compétitives à l’échelle mondiale.

L’innovation comme doctrine nationale

Le 4e plénum récent a acté un durcissement stratégique autour de l’innovation technologique, désormais pilier central du modèle de développement. Pékin vise l’autonomie dans les semi-conducteurs, l’intelligence artificielle, le numérique et les biotechnologies.

L’innovation n’est plus pensée comme un simple effort scientifique, mais comme un système intégré reliant recherche fondamentale, industrialisation et marché intérieur. Cette orientation structurera le 15e plan quinquennal (2026-2030), faisant de la maîtrise technologique un levier de résilience et de souveraineté.

Le système chinois combine confucianisme, léninisme, autoritarisme technocratique, capitalisme d’État et mécanismes de marché. Il s’agit d’un modèle hybride visant l’efficacité stratégique plus que la pure orthodoxie idéologique.

La vision financière de Xi Jinping : morale et puissance

Xi Jinping a récemment appelé à ce que le yuan acquière le statut de monnaie de réserve mondiale. Sa vision d’un « système financier moderne aux caractéristiques chinoises » repose non seulement sur des structures institutionnelles, mais aussi sur une culture morale.

Selon lui, règles et institutions ne suffisent pas : la stabilité exige une éthique intériorisée. S’inspirant d’un débat ancien entre légalistes et confucéens, il affirme que les règles seules produisent des experts en contournement ; seule la vertu garantit la durabilité.

Les cinq principes qu’il énonce honnêteté, droiture, prudence, innovation ancrée dans l’économie réelle et respect strict de la loi visent à éviter les excès observés en Occident comme en Chine (banque parallèle, spéculation immobilière, corruption). Il reconnaît d’ailleurs que le système chinois est « grand mais pas fort », ce qui fait de ce discours une correction plutôt qu’un triomphe.

Le paradoxe américain : vers une hybridation des modèles

Alors que Washington critique le capitalisme d’État chinois, les États-Unis adoptent progressivement des outils similaires : droits de douane, subventions ciblées, politique industrielle assumée, sécurisation des chaînes d’approvisionnement.

Sous Biden puis lors du second mandat de Trump, la coordination État-industrie s’est intensifiée. Le projet « Vault », visant à constituer des réserves stratégiques de minerais critiques (lithium, cobalt, nickel, terres rares), illustre cette mutation. Les États-Unis élargissent désormais la logique de stock stratégique au-delà du pétrole.

La rivalité sino-américaine ne mène pas à la victoire d’un modèle sur l’autre, mais à une hybridation. En cherchant à contenir la Chine, Washington adopte certaines de ses méthodes.

Le défi psychologique et civilisationnel

La Chine remet en cause l’idée selon laquelle modernité, innovation et prospérité durable seraient intrinsèquement liées au capitalisme libéral-démocratique. Ses succès industriels et technologiques sont souvent réduits à l’intervention de l’État, minimisant ses capacités substantielles.

Cette remise en question intervient alors que de nombreuses démocraties occidentales traversent des crises internes. La légitimité politique doit-elle reposer uniquement sur la procédure démocratique, ou inclure performance, efficacité et résilience ?

La Chine a démontré sa capacité à innover sous pression, à absorber la coercition économique et à mobiliser massivement des ressources pour la transition énergétique.

Un monde post-occidental ?

Des signes de reconnaissance émergent aux États-Unis. Certains intellectuels et entrepreneurs admettent la nécessité d’un État plus capable de construire et d’orienter. Les jeunes générations se montrent moins anxieuses face à l’ascension chinoise que leurs aînés.

Dans le Sud global, la trajectoire chinoise élargit les horizons : développement dirigé par l’État, planification à long terme, infrastructures massives, intégration sélective aux marchés mondiaux.

Le monde n’est plus structuré autour d’un seul récit de modernité. Plusieurs voies vers la prospérité coexistent désormais.

Conclusion : adaptation ou déni

Faire face à cette réalité ne signifie pas abandonner ses valeurs, mais reconnaître que la modernité n’est plus exclusivement occidentale. Le choix pour l’Occident n’est pas entre résistance et capitulation, mais entre adaptation lucide et déni obstiné.

Sources :

Mesurer la puissance manufacturière chinoise | Projet ChinaPower

Graphique : Les États-Unis dépendent fortement des importations de terres rares en provenance de Chine | Statista

China’s renewables reach new heights, as offshore wind takes off – Global Energy Monitor

Crédits et déductions en vertu de la loi sur la réduction de l’inflation de 2022 | Service des impôts

Catégories
Economie En vedette Géopolitique

Trump durcit la pression pétrolière sur Cuba

Pendant plus de vingt ans, le pétrole vénézuélien a constitué bien davantage qu’une simple source d’énergie pour Cuba. Il a été un amortisseur macroéconomique, un outil de stabilité sociale et un pilier géopolitique de l’architecture régionale anti-américaine construite autour de La Havane et Caracas.

Cette relation s’enracine dans l’arrivée au pouvoir de Hugo Chávez en 1999. Proche de Fidel Castro, Chávez transforme le pétrole en instrument de solidarité idéologique. En 2000, un accord de coopération énergétique prévoit que le Venezuela fournisse du brut à des conditions concessionnelles, tandis que Cuba envoie des milliers de médecins, enseignants et conseillers.

En 2004, la création de l’Alliance bolivarienne pour les peuples de notre Amérique (ALBA) institutionnalise cette alliance comme contrepoids à l’influence américaine en Amérique latine. Entre 2005 et 2013, Caracas livre jusqu’à 115 000 barils par jour à Cuba, couvrant près de 60 % des besoins énergétiques de l’île. Le pétrole devient alors une véritable subvention extérieure, permettant à l’économie cubaine de fonctionner malgré une faible productivité et un accès restreint aux marchés financiers.

Au-delà de l’économie, l’échange consolide une alliance politique. Après la tentative de coup d’État de 2002 contre Chávez, Cuba renforce l’appareil sécuritaire vénézuélien. Chaque baril contribue indirectement à la stabilité des deux régimes.

L’érosion du modèle sous Nicolás Maduro (2014-2024)

La mort de Chávez en 2013 marque un tournant. Sous Nicolás Maduro, le Venezuela entre dans une crise profonde : effondrement des prix du pétrole en 2014, sous-investissement chronique de PDVSA, sanctions américaines.

La production vénézuélienne chute drastiquement, réduisant les livraisons à Cuba de plus de 100 000 barils par jour à environ 35 000 ces dernières années. Cette baisse révèle la fragilité structurelle du système énergétique cubain.

Cuba consomme environ 110 000 barils par jour, mais n’en produit qu’environ 40 000, un brut lourd et soufré principalement destiné aux centrales thermiques vieillissantes. La production domestique, stable entre 50 000 et 60 000 barils par jour entre 2003 et 2014, est tombée à environ 33 000 barils en 2023, alors que la consommation restait supérieure à 118 000 barils par jour. Ce déficit structurel ne peut être absorbé ni en volume ni en qualité.

Des alternatives insuffisantes : Mexique et Russie

Face au recul vénézuélien, Cuba s’est tournée vers le Mexique et la Russie. En 2025, les livraisons mexicaines atteignaient environ 20 000 barils par jour, et la Russie fournissait près de 10 000 barils quotidiens.

Cependant, ces flux ne bénéficient ni des mêmes conditions financières concessionnelles ni du même degré d’intégration politique que l’accord chaviste. Exposées aux pressions américaines et aux risques commerciaux, ces alternatives se sont révélées précaires. La suspension des livraisons mexicaines et le durcissement des contrôles maritimes ont conduit début 2026 à des périodes où l’île ne recevait pratiquement plus de pétrole.

Le choc énergétique de 2026 : rupture de continuité

L’intervention américaine au Venezuela et la chute de Maduro désarticulent l’axe énergétique régional qui soutenait Cuba depuis deux décennies. Il ne s’agit plus seulement de sanctions bilatérales classiques, mais d’une stratégie en réseau : frapper un nœud le Venezuela pour affaiblir un autre Cuba.

Le système électrique cubain, dépendant à 95 % du fuel importé, s’effondre rapidement. Les coupures atteignent parfois vingt heures par jour dans certaines régions. L’économie fonctionne par à-coups : usines à l’arrêt, commerces fermés, services publics réduits.

Le canal logistique est également touché : pénuries de diesel, transports publics réduits, chaînes du froid rompues, agriculture mécanisée au ralenti. Les pénuries deviennent physiques autant que monétaires, alimentant inflation et marchés parallèles.

L’effet multiplicateur sur l’économie

Le tourisme, représentant environ 10 % du PIB, est directement frappé. Déjà affaibli par la pandémie et les sanctions, il n’a attiré que 1,8 million de visiteurs l’an dernier contre 4,7 millions en 2018. Les pannes d’électricité et les difficultés d’avitaillement en kérosène aggravent les annulations de vols et la chute des recettes en devises.

La crise devient circulaire : moins d’énergie signifie moins de tourisme, donc moins de devises, donc moins de capacité à importer du carburant.

Selon le Centre d’études de l’économie cubaine, le PIB se serait contracté d’environ 5 % en 2025, prolongeant une chute cumulée supérieure à 15 % depuis 2020. L’inflation dépasse 30 %, le déficit commercial demeure élevé et les recettes extérieures tourisme, missions médicales, exportations traditionnelles sont en déclin.

Le président Miguel Díaz-Canel a instauré des mesures d’urgence : rationnement accru, semaine de travail réduite dans les entreprises d’État, priorisation énergétique pour la santé et l’alimentation.

Une crise sociale et politique

Les ménages subissent une triple pression : absence d’électricité et d’eau, inflation de pénurie, destruction d’emplois dans le tourisme et les services. Des manifestations sporadiques ont été signalées, tandis que les autorités renforcent les dispositifs de sécurité et mobilisent les structures de surveillance locales.

L’énergie agit comme un multiplicateur de fragilités : chaque baril manquant signifie moins de transport, moins de production, plus d’inflation et davantage de mécontentement social.

Une dépendance réduite… mais plus dangereuse

Paradoxalement, Cuba dépend aujourd’hui moins du Venezuela en valeur absolue qu’au pic des années 2000. Mais cette dépendance résiduelle est devenue plus périlleuse : le pétrole vénézuélien était historiquement intégré au système cubain et fourni à des conditions concessionnelles.

Sa disparition transforme une relation stabilisatrice en talon d’Achille économique. La crise actuelle n’est pas conjoncturelle, mais systémique. Dans une économie insulaire fortement dépendante des importations énergétiques, un choc pétrolier se transforme mécaniquement en crise économique, puis sociale.

Tant que cette dépendance structurelle ne sera pas réduite ce qui suppose investissements, réformes et accès durable aux devises chaque rupture énergétique restera une menace existentielle pour l’île.

Sources :

https://www.bbc.com/news/world-latin-america-11147157

Comisión Económica para América Latina y el Caribe

Catégories
Banque & Finance Bourse En vedette

Aktionnaire Day : le rendez-vous des investisseurs

Aktionnaire Day s’impose comme le plus grand événement français dédié aux nouveaux investisseurs.

Organisé à Station F, il réunit plus de 3 000 participants pour une journée immersive autour de l’investissement, avec plus de 80 intervenants et partenaires mobilisés pour décrypter les marchés et proposer des solutions adaptées à tous les profils. L’ambition est claire : rendre la culture financière plus accessible, plus lisible et plus concrète.

Comprendre avant d’investir

Alors que les outils d’investissement se multiplient, beaucoup de particuliers manquent encore de repères face à la complexité des marchés. Aktionnaire Day répond à ce besoin à travers des tables rondes, des retours d’expérience et des échanges directs avec des experts. Les participants peuvent décrypter les grandes tendances économiques, explorer différentes stratégies (bourse, ETF, immobilier, private equity, crypto, finance durable…) et identifier des approches adaptées à leur niveau d’expérience, du débutant à l’investisseur confirmé.

Des speakers de référence pour éclairer les décisions

L’événement réunit des investisseurs reconnus, des entrepreneurs, des économistes, des créateurs de contenu finance et des dirigeants d’acteurs majeurs du secteur.

Parmi les profils présents figurent notamment :

  • Marc Fiorentino, analyste financier et fondateur de MeilleurTaux Placement
  • Matthieu Louvet, vulgarisateur financier et fondateur de S’investir
  • Thami Kabbaj, trader, auteur et entrepreneur
  • Nicolas Chéron, analyste marchés
  • Alexandre Lacharme, formateur en investissement
  • Hamza Naqi, fondateur du média Parlons Finance
  • Des dirigeants et experts issus d’acteurs majeurs comme Euronext, Amundi, BlackRock ou encore Trade Republic.

Ces intervenants partagent analyses macroéconomiques, stratégies concrètes, retours d’expérience et visions prospectives afin d’aider chacun à mieux comprendre les enjeux actuels des marchés.

Une expérience immersive et collective

Plus qu’une simple conférence, l’événement est pensé comme une expérience collective favorisant le networking, les rencontres informelles et la découverte de solutions innovantes. Curieux, investisseurs autonomes, entrepreneurs et acteurs de la finance s’y retrouvent pour confronter leurs idées et repartir avec une vision plus claire de leurs prochaines décisions financières.

Un nouveau réflexe pour investir en connaissance de cause

Aktionnaire Day ne promet pas de recettes miracles. Il propose un cadre structuré, pédagogique et accessible pour permettre à chacun d’investir en connaissance de cause. Dans un environnement financier de plus en plus stratégique, l’événement s’impose comme un point d’entrée naturel pour celles et ceux qui souhaitent comprendre, comparer et agir avec méthode.

Inscris-toi pour réserver ta place

Les places étant limitées, mieux vaut anticiper.

Inscris-toi dès maintenant pour garantir ta participation et rejoindre les 3 000 investisseurs présents à Station F.

Lien de l’inscription : Aktionnaire Day

Une journée pour comprendre, comparer et passer à l’action en toute connaissance de cause.

Catégories
En vedette Géopolitique Macro Nos analyses

Iran–États-Unis : la mécanique d’une escalade régionale

La séquence actuelle autour de l’Iran n’est plus une répétition de rhétorique. Elle ressemble à une montée en puissance logistique qui, par sa nature même, crée du risque, même si la Maison-Blanche espère encore un accord.

Les discussions indirectes se heurtent à un mur structurel, Washington veut un paquet qui englobe nucléaire, missiles, “proxys”, Téhéran peut accepter des ajustements sur le nucléaire mais refuse d’ouvrir ce qu’il considère comme sa profondeur stratégique et sa souveraineté, missiles et alliances régionales. Les divergences ne sont pas seulement techniques, elles sont identitaires. Et quand les objectifs deviennent maximalistes, la négociation cesse d’être un mécanisme de désescalade : elle devient un prétexte à la préparation.

Ces dernières semaines, plusieurs signaux convergent vers un fait central : les États-Unis veulent disposer d’une option militaire crédible, potentiellement calibrée pour durer, pas seulement pour “envoyer un message”.

Des responsables américains évoquent une mobilisation préparant des opérations sur plusieurs semaines si un ordre d’attaque était donné, avec un objectif de pleine capacité de déploiement à l’horizon mi-mars.

Dans le même temps, l’Iran a publiquement annoncé qu’en cas de frappe il viserait les bases américaines dans la région, en insistant sur le fait que ces frappes ne devraient pas être interprétées comme une attaque contre les pays hôtes, ce qui est précisément la manière iranienne de rendre la riposte “utilisable” sans élargir immédiatement en guerre inter-États avec les monarchies du Golfe.

Une option militaire crédible, mais logistiquement moins disponible.

Le problème, pour Washington, est que la région n’est plus celle de 2003. Les bases existent, la puissance de feu aussi, mais le théâtre est devenu saturé de vulnérabilités, et surtout politiquement moins disponible. Riyad a officiellement indiqué qu’il n’autoriserait ni son territoire ni son espace aérien à être utilisés pour des actions militaires contre l’Iran, et Abou Dhabi, Doha et Ankara ont communiqués une position similaire.

Ce verrou politique change la géométrie de la campagne. Il force l’US Air Force à penser ses sorties depuis des points plus éloignés, avec davantage de ravitaillement en vol, des cycles plus longs, donc moins de sorties, donc moins d’endurance. Autrement dit, même une campagne “sans invasion” devient plus coûteuse en munitions, en logistique, en temps, ce qui augmente mécaniquement le risque d’enlisement et donc la tentation d’élargir les cibles.

C’est ici que le précédent de la “guerre des douze jours” devient un repère utile, non pas pour imaginer un copier-coller, mais pour mesurer le durcissement du théâtre. En juin dernier, les États-Unis avaient déjà frappé des cibles nucléaires iraniennes en fin de campagne israélienne de douze jours. Cette séquence a montré deux choses que beaucoup d’analyses grand public minimisent.

D’abord, même quand une partie des tirs est interceptée, des impacts réels peuvent frapper des infrastructures sensibles, y compris des sites liés à l’appareil de défense. Ensuite, l’Iran apprend, adapte ses salves, varie ses vecteurs, cherche moins le symbole que l’usure des défenses. Or, une coalition qui vise une campagne plus longue doit compter non seulement ses plateformes, mais ses stocks de munitions à distance, ses intercepteurs, et le tempo politique domestique qui supporte une crise prolongée.

À ce stade, il faut clarifier une ambiguïté qui pèse sur les marchés. Une frappe “punitive” courte est une chose. Une stratégie visant à profiter d’un pouvoir fragilisé pour tenter un changement de comportement stratégique, voire un basculement interne, en est une autre. Or l’environnement régional peut donner à certains, à Washington comme à Tel-Aviv, le sentiment que la fenêtre est favorable : affaiblissement relatif de certains relais, pression sociale intérieure, et perception d’un moment de déséquilibre. Le risque, pour Téhéran, est existentiel. Et quand un pouvoir estime qu’on cherche sa fin, il ne raisonne plus en “règles d’engagement”, il raisonne en dissuasion par escalade.

C’est dans ce cadre que l’attitude des États du Golfe devient une variable centrale, non pas accessoire. Leur refus de servir de plateforme opérationnelle n’est pas un détail diplomatique : c’est une contrainte stratégique qui dit une vérité nouvelle, les monarchies veulent éviter d’être aspirées dans une guerre qui détruirait leur stabilité économique au moment même où elles essaient de sortir de la dépendance pétrolière. Une partie de leur message à l’Iran, déjà visible dans la communication publique, consiste à poser une frontière nette entre “l’attaque américaine” et “la responsabilité de l’État hôte”. Dit plus brutalement, elles cherchent à neutraliser l’équation iranienne classique, frapper les bases pour frapper la politique des capitales qui les accueillent.

Mais ce verrou n’élimine pas le risque. Il le déplace. Si les bases du Golfe deviennent politiquement “inutilisables” pour lancer l’offensive, elles restent physiquement vulnérables pour encaisser des représailles, ce qui alimente une autre dynamique, l’élargissement du théâtre malgré la volonté affichée de neutralité. Plusieurs capitales arabes expriment d’ailleurs leur inquiétude face à l’hypothèse que l’Iran mette sa menace à exécution en cas d’attaque américaine.

Ormuz, Bab el-Mandeb, Vulnérabilité commerciale et élargissement régional

Le second déplacement, plus dangereux encore, concerne les infrastructures énergétiques et logistiques. Les commentateurs évoquent toujours Ormuz comme un interrupteur, mais l’économie moderne ne se résume pas à un détroit. Le vrai risque est une combinaison : un détroit sous pression, Bab el-Mandeb remis sous tension via le théâtre yéménite, et des hubs de stockage et de soutage transformés en “actifs stratégiques” dans une escalade. On peut rappeler que le port de Fujairah, côté Émirats, concentre environ 80 millions de barils de capacité de stockage, renforcée par des cavernes ADNOC d’environ 42 millions de barils : c’est un point névralgique par définition. Et, dans une logique d’escalade, la tentation de frapper une infrastructure située aux Émirats peut apparaître politiquement moins coûteuse qu’hier pour Téhéran, précisément parce qu’Abou Dhabi est aujourd’hui davantage isolé dans son environnement régional, en friction ouverte avec Riyad et sous suspicion durable de plusieurs capitales du Golfe, ce qui réduit mécaniquement les risques de solidarité automatique autour de lui.

 La question n’est pas de savoir si des dizaines de millions de barils “brûleraient” dans un scénario extrême, mais de comprendre ce que représente, pour les marchés, la simple crédibilité d’un risque sur un tel nœud : hausse de la prime d’assurance, re-pricing des routes, stress sur les stocks, et donc volatilité auto-entretenue.

Ajoutez à cela la dimension des proxys, qui est précisément l’une des pierres d’achoppement des négociations. Washington veut réduire l’influence iranienne via les réseaux armés, notamment en Irak, au point d’utiliser la pression financière comme levier, ce qui montre que le front irakien n’est pas périphérique, il est central. Une escalade contre l’Iran a donc toutes les chances de réactiver, en miroir, une escalade “contre les implantations américaines” via des relais difficiles à neutraliser sans ouvrir une guerre plus large. Et dans un tel schéma, la Jordanie, par sa géographie et ses contraintes politiques, peut cesser d’être un simple couloir logistique pour devenir un théâtre exposé, au même titre qu’Israël. Ce basculement aurait une portée politique lourde : il fragiliserait durablement le roi Abdallah II, dans un pays où la marge d’autonomie diplomatique vis-à-vis de Washington demeure plus limitée que celle des monarchies du Golfe, capables, malgré leur dépendance sécuritaire, de poser des lignes rouges. Dans le contexte actuel, où la société jordanienne est déjà fortement mobilisée et critique sur la posture du royaume face à Gaza, l’idée même d’une Jordanie transformée en arrière-base, donc en cible potentielle, pourrait devenir un facteur de déstabilisation interne autant qu’un risque militaire.

Reste un facteur trop souvent traité comme une note de bas de page : la Chine. Une guerre contre l’Iran n’est pas un Venezuela. Dans l’économie réelle des sanctions, l’énergie iranienne est déjà une énergie sous contrainte, et donc un flux où la Chine est l’acteur le plus structurant, parce qu’elle sait absorber, financer, transporter, et contourner. En clair, perturber durablement l’Iran, c’est perturber une partie du système d’approvisionnement à prix décoté qui sert la Chine. 

Cela crée, pour Pékin, un incitatif clair à s’impliquer davantage, non pas par un engagement ostensible qui l’exposerait politiquement, mais par une montée en gamme discrète de l’assistance : apports technologiques, soutien en renseignement, capacités de surveillance et d’alerte, et intrants qui accroissent la résilience du dispositif iranien. Le déploiement de bâtiments chinois spécialisés dans la collecte et l’observation, y compris des navires de surveillance, dans l’environnement élargi du théâtre, s’inscrit dans cette logique : améliorer la connaissance de situation iranienne tout en densifiant le brouillard tactique pour l’adversaire.

Mais il y a un second objectif, rarement formulé publiquement. Aider l’Iran sur un théâtre où les États-Unis et Israël opèrent, c’est aussi, pour la Chine, un laboratoire grandeur nature : un stress test de ses capteurs, de ses liaisons, de ses systèmes de navigation et de renseignement, de ses chaînes de transmission, face à des standards occidentaux. Sans tirer un coup de feu, Pékin peut observer, mesurer, calibrer, apprendre, et ajuster. Et dans un monde où la question taïwanaise demeure l’horizon stratégique, la valeur de ces retours d’expérience dépasse largement l’Iran : elle nourrit la préparation d’un éventuel affrontement futur, en testant ses équipements, ses procédures et sa capacité à opérer indirectement dans un environnement contesté.

Le point le plus important, pour une analyse de risque, est le suivant : l’option “pas de troupes au sol” réduit le coût politique, mais elle réduit aussi la capacité à atteindre des objectifs maximalistes. Les responsables américains le savent, l’Iran est une forteresse géographique et démographique, et une campagne aérienne, même intense, n’a pas mécaniquement la capacité de “changer le pouvoir en place” si elle n’est pas adossée à une architecture interne prête à prendre le relais. Cela ouvre une zone grise très dangereuse : on peut frapper sans gagner, et dans ce cas, la seule manière de “ne pas perdre” devient d’élargir, de durer, ou de redéfinir les objectifs en cours de route. C’est là que les marchés se trompent souvent : ils réagissent aux premières 72 heures, alors que le vrai risque est dans le jour 10, quand les stocks s’érodent, que la fatigue politique monte, que les proxys se réveillent, que l’énergie se reprice, et que chaque acteur cherche une sortie sans humiliation.

Si l’on veut résumer les risques concrets, ils s’agrègent en trois couches. D’abord, une couche militaire, vulnérabilité des bases américaines, saturation possible des défenses, multiplicité des vecteurs, et incertitude sur l’endurance des stocks de munitions. Ensuite, une couche énergétique, Ormuz comme symbole, mais surtout l’ensemble du système, Bab el-Mandeb, ports, assurances, hubs de stockage, où la simple crédibilité d’un risque suffit à faire bouger la prime. Enfin, une couche politique, l’escalade reconfigure la diplomatie du Golfe, teste l’autonomie des capitales hôtes, et expose les États de transit comme la Jordanie à devenir, malgré eux, partie du théâtre.

La conclusion est simple et inconfortable. Une guerre est loin d’être certaine, et il existe encore des signaux de diplomatie, mais la mécanique de préparation, elle, est déjà une mécanique de risque. Plus le paquet américain reste maximaliste, plus l’Iran interprète l’option militaire comme un projet existentiel, plus il cherchera à dissuader par la menace de régionalisation, bases, Israël, routes maritimes, et nœuds énergétiques. Et plus les États du Golfe verrouillent leurs bases et leur espace aérien, plus l’architecture opérationnelle américaine devient complexe, donc potentiellement plus longue, donc plus exposée à l’élargissement.

Dans un Moyen-Orient déjà tendu, le danger n’est pas seulement l’événement. C’est la durée, parce qu’une crise longue transforme toujours l’économie en politique, et la politique en instabilité.

Catégories
Banque & Finance Bourse En vedette

Pourquoi le retour des valeurs sûres reviennent en force

Au cours des dernières années, les marchés actions ont été dominés par un récit unique : l’innovation technologique et plus récemment l’intelligence artificielle serait la principale source de performance.

Les investisseurs ont concentré leurs capitaux sur quelques valeurs très dynamiques, parfois spectaculaires, censées capter la croissance du futur.

Mais depuis peu, un mouvement inverse apparaît. Après l’euphorie, la volatilité revient : certaines des actions les plus populaires corrigent fortement, tandis que des entreprises longtemps jugées sans intérêt reprennent le leadership. La performance n’est plus seulement liée à la croissance attendue, mais à la stabilité offerte.

Le phénomène n’est pas nouveau dans l’histoire financière : lorsqu’un thème dominant devient trop consensuel, le marché recommence à rémunérer la prévisibilité plutôt que la promesse.

Avant de continuer, un grand merci à notre sponsor Trade Republic pour son soutien 🤝
👉 J’ouvre mon compte Trade Republic

J’ouvre mon compte Trade Republic

De la fascination pour la croissance à la recherche de stabilité

En 2025, plusieurs titres emblématiques ont connu des hausses exceptionnelles, dépassant parfois 100 % en un an. Pourtant, au début de 2026, ces mêmes valeurs ont subi de fortes corrections : des reculs de 25 % à 45 % en quelques mois.

Dans le même temps, des fonds investis dans des entreprises dites « défensives » services publics, assurance, consommation courante ou industrie de base progressaient légèrement alors que l’indice global stagnait.

Le marché n’a donc pas seulement changé de direction : il a changé de critère d’évaluation.
La croissance future n’est plus le seul facteur ; la régularité des résultats redevient centrale.

Ce que signifie réellement la « faible volatilité »

Les fonds à faible volatilité reposent sur une idée simple : toutes les actions ne réagissent pas de la même façon aux cycles économiques.

Certaines entreprises dépendent fortement des anticipations technologie, publicité numérique, plateformes et leurs cours varient énormément lorsque les attentes changent. D’autres reposent sur des besoins permanents électricité, assurance, hygiène, alimentation et leurs revenus fluctuent peu. Sur longue période, ces actions défensives capturent généralement :

  • environ ⅔ à ¾ des gains lors des marchés haussiers
  • mais seulement ⅔ à ¾ des pertes lors des marchés baissiers

La différence paraît faible année par année, mais devient majeure avec le temps : éviter les fortes chutes réduit énormément l’effort nécessaire pour revenir au point de départ.

Un portefeuille qui perd 50 % doit doubler pour se reconstituer.
Un portefeuille qui perd 20 % n’a besoin que de 25 %.

La performance à long terme dépend donc autant de la profondeur des pertes que de l’ampleur des gains.

Une performance moins spectaculaire mais plus durable

Ce déplacement vers les actions stables modifie le comportement des investisseurs. À court terme, les titres dynamiques offrent des histoires séduisantes : innovation, disruption, croissance exponentielle.
À long terme, la performance dépend davantage de la continuité des flux financiers.

Ainsi, les actions dites « ennuyeuses » passent souvent inaperçues :

  • produits indispensables
  • marges prévisibles
  • croissance modérée mais régulière
  • dividendes récurrents

Elles ne dominent généralement pas les marchés haussiers, mais deviennent dominantes lorsque l’incertitude augmente. Le rendement n’est plus fondé sur l’anticipation du futur, mais sur la répétition du présent.

Une fonction nouvelle dans la construction de portefeuille

Ces stratégies jouent désormais un rôle intermédiaire entre actions et obligations. Traditionnellement, l’allocation type reposait sur le modèle 60 % actions / 40 % obligations : les actions apportent la croissance, les obligations la stabilité.

Mais lorsque les taux, l’inflation ou les déficits rendent les obligations moins prévisibles, les actions à faible volatilité deviennent un substitut partiel : elles restent exposées à la croissance économique tout en amortissant les chocs boursiers.

La frontière entre « actifs risqués » et « actifs sûrs » se brouille donc progressivement.

Une idée ancienne redevenue centrale

Dès les années 1970-1990, des travaux académiques avaient déjà observé ce paradoxe : les actions les moins risquées peuvent produire des rendements comparables, voire supérieurs, aux plus risquées sur longue période. Le marché rémunère parfois davantage la patience que l’audace.

Pendant longtemps, cette anomalie semblait secondaire face aux périodes d’innovation rapide. Mais lorsque la concentration sectorielle augmente aujourd’hui autour de la technologie la diversification redevient une source de performance en soi.

Un changement psychologique du marché

Le basculement actuel révèle surtout une transformation comportementale. Lorsque les investisseurs croient à une croissance illimitée, ils acceptent une forte volatilité pour espérer un gain élevé.
Lorsqu’ils doutent, ils privilégient la préservation du capital.

Autrement dit :

  • dans les phases d’optimisme → le marché achète le futur
  • dans les phases d’incertitude → il achète la stabilité

Le retour des actions « ennuyeuses » n’est donc pas seulement un phénomène financier : c’est un indicateur de climat économique.

Une question de temps plutôt que de rendement

Comme pour toute stratégie défensive, le compromis est clair :

  • court terme : moins de stress, moins de pertes violentes
  • long terme : gains potentiellement plus lents mais plus réguliers

La difficulté réside dans l’horizon d’investissement.
Ce qui paraît prudent sur quelques mois peut devenir déterminant sur plusieurs décennies, car la capitalisation récompense la continuité plus que les pics de performance.

Vers une nouvelle définition du risque

Le marché tend ainsi à redéfinir le risque. Pendant longtemps, le risque signifiait : ne pas participer aux plus fortes hausses.
Aujourd’hui, il signifie de plus en plus : subir les plus fortes baisses.

La conséquence est profonde : la performance n’est plus uniquement associée à la croissance maximale, mais à la capacité d’éviter l’érosion.

Autrement dit, dans certaines phases économiques, la stratégie la plus efficace n’est pas d’aller plus vite mais de tomber moins souvent.

Catégories
Banque & Finance Economie En vedette

Financer la guerre : le pari économique américain

Au printemps 1942, Franklin D. Roosevelt prépare les États-Unis à une guerre totale. Les usines doivent produire chars et bombardiers, des millions de soldats partent combattre sur deux continents et l’économie entière bascule vers l’effort militaire. Mais une autre inquiétude occupe le président : comment financer la guerre sans en transmettre la facture aux générations suivantes.

Le conflit coûte alors l’équivalent actuel d’environ 250 millions de dollars par jour. Roosevelt refuse la solution la plus simple l’endettement massif et choisit une voie politiquement risquée : faire payer immédiatement. Washington impose une hausse forte de l’impôt sur les sociétés, élargit sans précédent la base fiscale et applique un taux marginal de 94 % sur les plus hauts revenus. Le principe est clair : la guerre doit être ressentie par la société qui la mène.Le basculement vers la dette

Huit décennies plus tard, la logique s’est renversée. Les opérations militaires américaines ne sont plus financées par l’impôt mais majoritairement par l’emprunt. Les dépenses sont votées via budgets d’urgence ou crédits exceptionnels puis absorbées par la dette publique. Une opération militaire impliquant plus de 15 000 soldats et un groupe aéronaval complet peut atteindre environ 31 millions de dollars par jour, soit plus de 11 milliards par an si elle se prolonge, auxquels s’ajoutent la sécurisation de zones d’influence, la protection d’intérêts énergétiques ou la présence stratégique permanente. Contrairement à la Seconde Guerre mondiale, il n’y a ni rationnement ni hausse fiscale équivalente : pour la population, la guerre devient budgétairement presque invisible.

L’exemple irakien : la facture différée

La guerre d’Irak illustre ce changement d’échelle. Au départ, le conflit devait coûter quelques centaines de milliards de dollars ; au total, il atteint environ 4 500 milliards de dépenses directes et jusqu’à 8 000 milliards en incluant soins aux vétérans et intérêts. Autrement dit, la guerre continue d’être payée des décennies après la fin des combats. Pendant ce temps, la dette publique américaine détenue par le public est passée d’environ 33 % du PIB au début des années 2000 à près de 97 % aujourd’hui.

Lecture du graphique : la guerre comme engagement budgétaire permanent

Le diagramme met en évidence un élément central du basculement décrit dans l’article : la guerre américaine du XXIᵉ siècle n’est plus un choc financier ponctuel mais une structure de dépenses étalée dans le temps. Sur un total d’environ 8 000 milliards de dollars, la part directement liée aux combats (crédits OCO du Département de la Défense : ~2 101 Md$) ne constitue finalement qu’un tiers de la facture. Autrement dit, la bataille elle-même n’est plus le cœur du coût.

Deux postes dominent désormais :

  • les intérêts de la dette (~1 087 Md$) : ils traduisent le financement par emprunt. La guerre devient un flux financier futur avant d’être une dépense présente ;
  • la sécurité intérieure (~1 117 Md$) : extension durable de l’État sécuritaire après le conflit.

À cela s’ajoutent les soins aux vétérans (~465 Md$) et surtout les obligations futures estimées à plus de 2 200 Md$ supplémentaires, qui continueront à peser pendant plusieurs décennies. Le graphique montre donc une mutation fondamentale : la dépense militaire migre du champ militaire vers le champ social et financier.

En comparaison implicite avec la Seconde Guerre mondiale, le coût n’est plus concentré pendant la mobilisation nationale ; il se transforme en engagement budgétaire intergénérationnel. La guerre ne s’arrête plus avec l’armistice : elle devient une ligne permanente du budget fédéral, comparable à une politique publique de long terme.

Une guerre devenue invisible

Ce basculement produit un effet politique majeur : le coût immédiat disparaît du débat démocratique. Pendant la Seconde Guerre mondiale, impôts élevés, obligations de guerre et consommation contrainte rendaient l’effort tangible. Aujourd’hui, l’absence de prélèvement exceptionnel massif transforme le conflit en dépense différée. Financer la guerre par la dette modifie donc les décisions elles-mêmes : quand l’impôt augmente, la population arbitre ; quand la dette augmente, l’arbitrage est reporté. Le coût réel apparaît plus tard, sous forme d’intérêts, de soins aux vétérans, de reconstruction militaire et de refinancement.

Une question démocratique et générationnelle

Franklin D. Roosevelt voulait éviter de transmettre « plus que leur juste part de sacrifices » aux générations futures. La doctrine contemporaine fait l’inverse : elle répartit les coûts dans le temps pour préserver le présent. Ce changement dépasse l’économie et touche au fonctionnement même de la démocratie : une société peut-elle vraiment débattre de la guerre si elle n’en ressent pas immédiatement le prix ? La puissance militaire n’est plus seulement une question stratégique, mais aussi comptable et générationnelle.

Un risque budgétaire à long terme

Cette évolution pose aussi une question de soutenabilité financière. Plus les conflits et les présences militaires deviennent permanents, plus ils rigidifient le budget fédéral. Les intérêts de la dette s’ajoutent progressivement aux dépenses de défense, réduisant la marge pour les investissements civils infrastructures, éducation ou transition énergétique et transformant un choix stratégique ponctuel en contrainte budgétaire durable. Selon le Congressional Budget Office (CBO), la charge d’intérêts de la dette fédérale américaine figure désormais parmi les postes de dépenses à la croissance la plus rapide du budget et pourrait dépasser à terme certaines dépenses discrétionnaires, y compris des programmes domestiques majeurs.

Parallèlement, les travaux du projet Costs of War de l’université Brown montrent que les conflits post-2001 engendrent des coûts différés massifs (soins aux vétérans, intérêts sur l’emprunt, maintien capacitaire), confirmant que la guerre devient une dépense de long terme plutôt qu’un choc budgétaire ponctuel. À long terme, la politique étrangère finit ainsi par influencer directement les politiques sociales intérieures.

Vers un nouveau rapport entre puissance et économie

Au-delà du budget, c’est la nature même de la puissance qui change. Autrefois, la guerre impliquait mobilisation industrielle, fiscale et humaine immédiate ; aujourd’hui, elle repose davantage sur la capacité d’endettement et la crédibilité financière de l’État. L’économiste Barry Eichengreen souligne que le rôle international du dollar permet aux États-Unis de soutenir des déficits plus élevés que les autres puissances sans crise immédiate de financement, ce qui modifie les contraintes stratégiques classiques.

De son côté, l’historien Adam Tooze décrit la puissance américaine contemporaine comme une puissance « financière-géopolitique », où la domination monétaire et l’accès aux marchés de capitaux constituent un élément central de la projection de puissance. En d’autres termes, la force stratégique ne se mesure plus seulement en divisions ou en porte-avions, mais aussi en capacité à repousser dans le temps le coût réel des décisions présentes.

Sources :

Taux d’imposition du milieu du XXe siècle

Taux marginaux d’imposition : une chronologie historique

The national debt: How and why the US government borrows money

Costs of the 20-year war on terror: $8 trillion and 900,000 deaths

Costs of War – U.S. Federal Budget

Barry Eichengreen : Exorbitant Privilege (rôle international du dollar)

Adam Tooze : Crashed et travaux sur la puissance financière américaine

Catégories
Banque & Finance Bourse En vedette

Marchés financiers 2026 : le retournement arrive ?

Les marchés mondiaux abordent 2026 dans une configuration paradoxale. D’un côté, les fondamentaux macroéconomiques se stabilisent : la croissance mondiale résiste, l’inflation recule progressivement et les banques centrales ont engagé un cycle d’assouplissement mesuré.

De l’autre, les niveaux de valorisation et la concentration des performances suscitent des interrogations croissantes. Après une année 2025 particulièrement favorable, la question n’est plus seulement celle de la poursuite de la hausse, mais celle de la solidité des équilibres actuels.

Selon le FMI, la croissance mondiale devrait atteindre 3,3 % en 2026, dans un contexte de désinflation graduelle. Aux États-Unis, l’inflation ressort à 2,4 % sur un an en janvier 2026. En zone euro, elle est estimée à 1,7 %, avec une croissance modérée mais positive et un chômage stable autour de 6,2 %. À première vue, le scénario dominant reste celui d’un atterrissage maîtrisé plutôt que d’un retournement brutal.

Pourtant, la stabilité macroéconomique ne garantit pas automatiquement la stabilité financière.

Une dynamique moins homogène qu’en 2025

L’année 2025 a été marquée par des performances solides et relativement synchronisées : +16,39 % pour le S&P 500, +16,66 % pour le STOXX 600 et environ +20 % pour l’indice mondial MSCI. La progression a été soutenue par la détente progressive des conditions financières et par l’enthousiasme autour des grandes valeurs technologiques liées à l’intelligence artificielle.

Le début 2026 révèle toutefois une configuration plus fragmentée. Les flux d’investissement se dirigent davantage vers l’Europe et les marchés émergents, tandis que les valorisations américaines alimentent davantage de débats. La rotation sectorielle devient plus visible, avec une meilleure tenue relative des valeurs cycliques et énergétiques en Europe.

Ce changement de ton ne traduit pas nécessairement un retournement imminent, mais il reflète un marché devenu plus sélectif et plus sensible aux surprises.

Des valorisations exigeantes

Un indicateur régulièrement cité dans ce contexte est le CAPE (Cyclically Adjusted Price-Earnings Ratio), aussi appelé ratio de Shiller. Contrairement au ratio cours/bénéfices classique, il compare les prix actuels aux bénéfices moyens des dix dernières années, ajustés de l’inflation. Il permet ainsi de situer le niveau des marchés par rapport à leur historique long.

Début 2026, le CAPE américain évolue autour de 39–40, un niveau rarement observé. Ce type de niveau n’annonce pas mécaniquement une correction à court terme, mais il signale que le marché évolue dans une zone de valorisation élevée, où la marge d’erreur est plus réduite.

Volatilité et perception du risque

Le VIX, souvent qualifié d’“indice de la peur”, mesure la volatilité anticipée sur le S&P 500 à un horizon d’environ trente jours. Lorsque le VIX évolue entre 12 et 15, le marché est généralement perçu comme calme. Autour de 20, comme c’est le cas mi-février 2026, il traduit une nervosité plus marquée, sans pour autant signaler une situation de crise.

Ce niveau reflète avant tout une incertitude accrue autour de la trajectoire des taux d’intérêt et des valorisations technologiques.

Le crédit : des primes de risque comprimées

Le marché du crédit constitue un autre baromètre essentiel. Les spreads de crédit représentent la rémunération supplémentaire exigée par les investisseurs pour prêter à une entreprise plutôt qu’à un État.

Actuellement, ces spreads restent historiquement faibles, tant pour les entreprises solides (Investment Grade) que pour les entreprises plus risquées (High Yield). Cela signifie que le marché n’intègre qu’un niveau limité de risque économique ou financier. économique ou financier. Dans un tel environnement, un choc inattendu pourrait entraîner un élargissement rapide de ces spreads, avec des répercussions sur les marchés actions.

Le levier et la sensibilité aux mouvements

Les statistiques publiées par la FINRA permettent de mesurer les montants investis sur marge, c’est-à-dire les sommes empruntées par les investisseurs pour acheter des actions. Fin 2025, ces encours atteignent environ 1 230 milliards de dollars, un niveau historiquement élevé.

Un levier important ne provoque pas en soi une correction. En revanche, il peut amplifier les mouvements : en cas de baisse marquée, les ventes forcées liées aux appels de marge peuvent accentuer la volatilité.

Le positionnement des investisseurs

Les données hebdomadaires publiées par la CFTC (rapport “Commitments of Traders”) offrent une photographie du positionnement des grands acteurs sur les contrats à terme, notamment sur l’E-mini S&P 500, un instrument largement utilisé pour s’exposer à l’indice américain.

Les investisseurs institutionnels traditionnels apparaissent fortement positionnés à l’achat, tandis que certains fonds plus spéculatifs adoptent des positions vendeuses. Ce type de configuration peut amplifier les mouvements de marché, dans un sens comme dans l’autre, selon la direction prise par les prix.

Une question de régime plus que de timing

Au total, l’environnement 2026 ne présente pas les caractéristiques d’un déséquilibre systémique évident. La croissance demeure positive, l’inflation recule progressivement et les conditions financières se sont stabilisées.

En revanche, la combinaison de valorisations élevées, de primes de risque comprimées et d’un levier important rend les marchés plus sensibles aux surprises macroéconomiques ou aux révisions d’anticipations, notamment autour de l’intelligence artificielle.

En définitive, 2026 ressemble moins à une bulle manifeste prête à éclater qu’à une transition vers un régime plus exigeant. La question n’est pas seulement de savoir si une correction aura lieu, mais d’évaluer si le niveau actuel de rémunération du risque reflète correctement les incertitudes encore présentes.

Sources

FMI : World Economic Outlook Update, January 2026

Eurostat : Inflation zone euro (janvier 2026)

Eurostat : PIB T4 2025

BLS : CPI janvier 2026

FRED : Federal Funds Upper Limit

FRED : US 10Y Treasury

FRED : VIX

FRED : ICE BofA IG OAS

BIS Quarterly Review (Décembre 2025)

MSCI : Factsheets indices

Reuters : Flux et performances marchés 2025–2026

FINRA : Margin statistics

CFTC : Commitments of Traders

Catégories
Banque & Finance Bourse En vedette

Actions growth vs value : quelle stratégie aujourd’hui ?

Pendant longtemps, l’investissement en actions a été résumé à un choix simple : croissance ou value. Les entreprises de croissance promettaient une expansion rapide au prix d’une valorisation élevée et d’une forte volatilité, tandis que les sociétés value offraient des prix jugés attractifs et un rendement plus prévisible.

Cette distinction a servi de repère pratique pour construire un portefeuille et gérer le risque. Pourtant, avec l’évolution des marchés et des modèles économiques, cette grille de lecture explique de moins en moins la performance réelle. La question n’est plus quel style choisir, mais ce que signifie réellement la valeur d’une entreprise.

Avant de continuer, un grand merci à notre sponsor Trade Republic pour son soutien 🤝
👉 J’ouvre mon compte Trade Republic

J’ouvre mon compte Trade Republic

Une frontière devenue artificielle

Historiquement, la classification reposait sur des indicateurs simples : PER élevé pour la croissance, faible pour la value, dividendes d’un côté, réinvestissement de l’autre. Aujourd’hui, ces repères fonctionnent mal. Certaines entreprises combinent forte croissance, marges élevées et génération de trésorerie durable.

À l’inverse, certaines actions dites « value » restent bon marché parce que leur activité décline structurellement. Le marché ne valorise plus seulement les profits actuels, mais la capacité à produire des profits futurs fiables. Une action peut donc paraître chère sans être risquée, et bon marché sans être réellement intéressante.

Ce que les investisseurs paient vraiment

La distinction growth/value donne l’illusion d’opposer deux catégories d’actifs alors que les investisseurs paient toujours la même chose : la trajectoire future des flux économiques. Une entreprise de croissance devient value lorsque sa progression ralentit, tandis qu’une value redevient croissance lorsqu’elle retrouve un avantage compétitif.

Le style n’est pas une propriété permanente d’une entreprise, mais un jugement temporaire du marché. Growth et value ne décrivent pas la nature d’une société ; ils traduisent le degré de confiance accordé à ses profits futurs.

Le rôle déterminant des taux d’intérêt

Une grande partie de la rivalité historique entre croissance et value provient du contexte monétaire. Lorsque les taux d’intérêt sont bas, les profits lointains valent davantage et la croissance surperforme. Lorsque les taux montent, les flux proches deviennent plus importants et la value reprend l’avantage. La rotation entre styles reflète ainsi souvent la variation du prix du temps dans l’économie plutôt qu’un changement fondamental des entreprises.

Pourquoi cette opposition persiste

Cette opposition reste populaire parce qu’elle simplifie la prise de décision. Elle permet de comparer les fonds, de construire rapidement des allocations et de justifier une stratégie face à l’incertitude. Mais cette simplification a un coût : elle encourage à investir dans une catégorie plutôt que dans une réalité économique. L’investisseur finit par acheter un style au lieu d’acheter une entreprise.

L’erreur la plus fréquente

Beaucoup deviennent alors growth ou value en fonction du cycle récent : value après une bulle technologique, growth après une récession industrielle. La préférence suit souvent la performance passée plutôt qu’une analyse prospective. Le problème n’est pas de changer d’avis, mais de croire appliquer une stratégie alors qu’on réagit au contexte.

Une approche plus robuste : la qualité économique

Une approche plus robuste consiste à analyser la qualité économique : rentabilité du capital, durabilité de l’avantage concurrentiel, allocation du capital et résistance aux cycles. Une entreprise chère avec un rendement durable peut être moins risquée qu’une entreprise bon marché condamnée à stagner. La valeur n’est pas un prix bas, mais la capacité à créer de la richesse dans le temps.

Conclusion : la fin d’un faux duel

L’opposition entre actions de croissance et actions value n’est donc pas totalement fausse, mais elle est réductrice. Elle décrit surtout des comportements de marché face aux taux et aux cycles économiques. Sur le long terme, la performance ne provient ni d’un style ni d’une rotation bien anticipée, mais de la capacité à identifier des entreprises capables de maintenir durablement des rendements élevés. Growth et value ne sont pas deux stratégies : ce sont deux phases de perception d’une même réalité. L’investisseur n’achète pas une catégorie, il achète un futur crédible.

Catégories
Banque & Finance En vedette Success story

Invstore lance le matching épargnants–conseillers

La fintech française Invstore lance une fonctionnalité clé qui pourrait bien changer la façon dont les particuliers investissent : une mise en relation intelligente entre épargnants et conseillers financiers spécialisés (banques, CGP et fintechs), directement depuis une application simple et intuitive.

L’objectif de Raphaël Metrop, co-fondateur et CEO de Invstore, est de rendre le conseil financier accessible, lisible et humain, dans un univers de l’épargne devenu trop complexe pour de nombreux particuliers.

Investir devient simple… quand on est bien accompagné

Aujourd’hui, les épargnants n’ont jamais eu autant d’outils pour investir. Pourtant, ils sont nombreux à manquer de temps, de repères ou de confiance pour prendre les bonnes décisions. 

Résultat : beaucoup investissent seuls, parfois à l’aveugle, ou repoussent leurs projets faute d’accompagnement adapté.

Invstore apporte une réponse concrète à ce problème en proposant un parcours fluide qui permet, en quelques minutes :

  • d’analyser sa situation financière grâce à l’IA et à l’Open Banking,
  • d’exprimer clairement ses objectifs d’investissement,
  • d’accéder à des conseillers financiers réellement adaptés à son profil.

Le tout, sans engagement et sans pression commerciale.

Un matching intelligent entre épargnants et experts

Avec Invstore, le rapport de force s’inverse. Ce ne sont plus les particuliers qui cherchent un conseiller au hasard, mais les professionnels qui répondent à un besoin clairement identifié.

Concrètement :

  • l’épargnant reste anonyme lors des premiers échanges,
  • les conseillers envoient des propositions personnalisées,
  • l’utilisateur compare, choisit et décide librement avec qui il souhaite échanger.

Un fonctionnement inspiré des meilleures plateformes digitales, pensé pour redonner le contrôle à l’épargnant.

Gratuit pour les particuliers, sécurisé par conception

L’application Invstore est 100 % gratuite pour les épargnants. Le modèle repose sur un abonnement des professionnels et une commission sur les mises en relation réussies.

La plateforme est conçue dans le respect des normes les plus strictes : RGPD, DSP2, KYC / KYB, protection des données et anonymisation des profils.

La priorité : la confiance et la transparence.

Des partenaires de référence pour un lancement solide

Pour accompagner ce lancement, Invstore s’appuie sur des acteurs reconnus de l’écosystème financier :

  • Yomoni, pionnier de la gestion d’épargne digitalisée
  • Green-Got, référence de l’épargne responsable
  • Prosper Conseil, cabinet indépendant de gestion de patrimoine
  • Baltis, plateforme digitale du groupe Magellim

Un écosystème solide qui garantit la qualité des échanges et la pertinence des conseils proposés.

Déjà adoptée par les premiers utilisateurs

Lancée en bêta début 2025, Invstore a déjà convaincu :

  • jusqu’à 1 500 utilisateurs,
  • 35 millions d’euros d’encours connectés via l’Open Banking.

La plateforme entre désormais dans une nouvelle phase avec le déploiement complet de ses fonctionnalités de mise en relation, avant une ouverture à l’ensemble des conseillers financiers spécialisés prévue début mars 2026.

Invstore, le nouveau réflexe pour investir avec sérénité

Invstore ne promet pas des rendements miracles. La fintech propose mieux : un accès simple, structuré et humain au conseil financier, au moment où les décisions d’investissement deviennent de plus en plus stratégiques.

Classée parmi les startups à suivre en 2026 selon Forbes, Invstore incarne une nouvelle génération de fintechs : plus sobre, orientée usage, transparente et engagée en faveur d’une finance durable des thématiques devenues centrales en 2026.

Pour celles et ceux qui veulent investir sans être seuls, comparer avant de s’engager et reprendre le contrôle de leur parcours patrimonial, Invstore s’impose comme un nouveau point d’entrée naturel.

Télécharger Invstore et découvrir le matching financier intelligent