Catégories
Actualité Economie Entreprises

Près de 70 000 entreprises ont fait faillite en France en 2025. Un record historique !

Après plusieurs années d’aides massives pour soutenir l’économie pendant la pandémie, la France entre dans une nouvelle phase. Le temps du « quoi qu’il en coûte » est terminé.

Entre prêts garantis par l’État, reports de charges et dispositifs de soutien, l’État français a mobilisé près de 240 milliards d’euros pour éviter un effondrement de l’activité. À cela s’ajoute une hausse d’environ 1 000 milliards d’euros de la dette publique depuis la crise sanitaire.

Ces mesures ont permis d’éviter une vague immédiate de faillites et de préserver une grande partie du tissu économique. Mais trois ans après la fin du Covid, les effets secondaires apparaissent. 

Nombre de défaillances (cumul sur les douze derniers mois), décembre 1991 à août 2025

L’évolution des défaillances d’entreprises en Europe montre clairement ce phénomène. Après une chute pendant la pandémie, liée aux aides publiques massives, les faillites repartent fortement à la hausse à partir de 2022 pour atteindre un niveau supérieur à celui d’avant crise.

La fin du « quoi qu’il en coûte »

Pendant la pandémie, de nombreuses entreprises ont survécu grâce aux aides publiques. Les prêts garantis par l’État, les reports de charges ou encore l’activité partielle ont permis de maintenir en vie une grande partie de l’économie.

Mais ces dispositifs étaient temporaires. Depuis 2023, les échéances de remboursement se multiplient et les moratoires prennent fin. Une grande partie des prêts garantis par l’État a déjà été remboursée, obligeant les entreprises à fonctionner sans soutien exceptionnel.

Pour certaines structures déjà fragiles avant la crise, cette transition agit comme un révélateur des difficultés accumulées.

Une vague de faillites historique

Avec près de 70 000 cessations de paiement en 2025, la France dépasse les niveaux observés lors de plusieurs crises économiques récentes.

La vague touche différents types d’entreprises. Les PME installées depuis plus de quinze ans sont particulièrement exposées dans des secteurs comme l’industrie, la construction ou la restauration. Les très petites entreprises et certaines activités de services sont également fragilisées.

Dans plusieurs secteurs, la hausse des défaillances a été particulièrement marquée.

Des tensions de trésorerie croissantes

Au-delà des faillites, de nombreuses entreprises rencontrent aujourd’hui des difficultés financières. Une part importante des dirigeants de PME et de TPE déclare faire face à des problèmes de trésorerie.

La hausse des coûts de l’énergie, des transports ou de certaines matières premières a pesé sur les marges. Dans le même temps, la consommation ralentit et l’accès au crédit devient plus coûteux.

Lorsque la trésorerie se dégrade, les entreprises retardent souvent le paiement de leurs fournisseurs. Ce phénomène peut créer un effet domino et fragiliser l’ensemble de la chaîne économique.

Une économie plus prudente

La situation actuelle se caractérise par un paradoxe. L’inflation ralentit mais la croissance reste faible.

Les ménages privilégient l’épargne de précaution face aux incertitudes économiques et politiques. De leur côté, les entreprises hésitent à investir dans un contexte de crédit plus cher et de visibilité limitée.

L’argent reste présent dans l’économie mais circule moins rapidement.

La disparition des entreprises zombies

Une partie des faillites peut aussi s’expliquer par la disparition progressive des entreprises zombies.

Ce terme désigne des entreprises qui survivent grâce à des conditions financières favorables ou à des aides publiques malgré une rentabilité insuffisante. Pendant la crise sanitaire, ces structures ont pu prolonger leur activité grâce aux dispositifs de soutien.

Avec la fin de ces aides et la hausse des taux d’intérêt, certaines ne parviennent plus à maintenir leur équilibre financier.

La destruction créatrice

Ce phénomène s’inscrit dans une dynamique décrite par l’économiste Joseph Schumpeter : la destruction créatrice.

Les crises provoquent la disparition des entreprises les moins productives, libérant des ressources pour de nouvelles activités plus innovantes. Ce processus peut être douloureux à court terme, mais il contribue aussi au renouvellement du tissu économique.

Une économie plus résiliente qu’il n’y paraît

Malgré ces chiffres élevés, les faillites doivent être replacées dans une perspective plus large. Chaque année, plus d’un million de nouvelles entreprises sont créées en France.

Une grande partie des disparitions correspond à des fermetures naturelles d’activité. Au total, les défaillances représentent une part relativement limitée des entreprises actives.

La période actuelle apparaît donc davantage comme une phase d’ajustement après plusieurs années de soutien exceptionnel que comme un effondrement de l’économie française.

Catégories
Banque & Finance Bourse En vedette

Investissement progressif : pourquoi investir chaque mois

« Le plus grand ennemi de l’investisseur n’est souvent pas le marché… mais lui-même. » Cette idée résume parfaitement l’intérêt de l’investissement progressif.

Beaucoup d’investisseurs pensent devoir trouver le moment idéal pour entrer sur le marché. Ils attendent une correction, un signal économique ou le “bon prix”. Sur le papier, cette stratégie semble logique : acheter au plus bas et vendre au plus haut.

Mais dans la réalité, anticiper les marchés de manière régulière est extrêmement difficile. Et c’est précisément dans cet écart entre théorie et pratique que l’investissement progressif prend tout son sens.

Avant de continuer, un grand merci à notre sponsor Trade Republic pour son soutien 🤝
👉 J’ouvre mon compte Trade Republic

J’ouvre mon compte Trade Republic

Investir en une fois ou investir progressivement

Lorsqu’un investisseur dispose de capital, deux approches principales existent : investir tout le montant immédiatement ou investir progressivement, par exemple chaque mois. La première approche repose sur une logique simple : puisque les marchés montent sur le long terme, investir le plus tôt possible maximise le temps d’exposition.

La seconde approche repose sur un principe différent : réduire le risque de mauvais timing en étalant les investissements dans le temps. Cette stratégie est souvent appelée investissement progressif ou Dollar Cost Averaging (DCA).

Le principe de l’investissement progressif

Le principe est simple : investir un montant fixe à intervalles réguliers, généralement chaque mois, indépendamment des conditions de marché. Par exemple, un investisseur peut placer 300 € chaque mois dans le même ETF ou le même portefeuille pendant plusieurs années.

Lorsque les marchés baissent, la même somme permet d’acheter davantage de parts. Lorsqu’ils montent, elle en achète moins. Avec le temps, cela produit un prix d’achat moyen et évite de dépendre d’un seul point d’entrée sur le marché.

La puissance de la régularité

L’investissement progressif fonctionne moins comme une stratégie de marché que comme une discipline financière. Au lieu de se demander constamment si le moment est opportun pour investir, l’investisseur suit une règle simple : investir chaque mois, quelles que soient les conditions de marché.

Cette régularité élimine une grande partie de la pression liée au timing, transforme l’investissement en habitude et permet surtout de continuer à investir pendant les périodes de baisse, souvent les moments les plus importants pour construire une performance future.

Là où la psychologie entre en jeu

En théorie, investir une somme importante immédiatement peut être statistiquement avantageux si les marchés progressent sur le long terme. Mais en pratique, les investisseurs ne sont pas des modèles mathématiques. Ils réagissent aux fluctuations, aux corrections et aux crises.

Un investisseur qui place une somme importante juste avant une chute de marché peut être tenté de vendre dans la panique. À l’inverse, celui qui investit progressivement suit simplement son plan, achète davantage lorsque les prix baissent et reste exposé sur la durée.

L’effet cumulatif du temps

L’investissement progressif tire également parti d’un autre moteur essentiel de la richesse financière : la capitalisation. Chaque nouvelle contribution s’ajoute au capital existant, qui lui-même continue de croître.

Au fil des années, les contributions régulières, les dividendes réinvestis et la croissance des marchés peuvent transformer de petites sommes mensuelles en capital significatif. La clé n’est pas nécessairement la taille des versements, mais leur régularité et leur durée.

Simplicité contre perfection

Comme souvent en finance, la stratégie la plus simple n’est pas forcément la plus optimisée sur le plan théorique, mais elle peut être la plus efficace dans la réalité. Les stratégies complexes exigent des décisions fréquentes, une analyse constante des marchés et une discipline psychologique difficile à maintenir sur plusieurs décennies.

À l’inverse, investir chaque mois dans un portefeuille diversifié demande surtout de la constance.

La vraie force de l’investissement progressif

La vraie force de l’investissement progressif n’est donc pas de battre les marchés. Elle est de rendre l’investissement durable. En théorie, la performance dépend du comportement des marchés. En pratique, elle dépend aussi de la capacité de l’investisseur à rester discipliné pendant des années.

Et sur plusieurs décennies, cette différence entre stratégie idéale et comportement réel peut devenir décisive.

Catégories
Banque & Finance Bourse En vedette

Top secteurs pour dynamiser votre portefeuille 2026

Dans un environnement économique où l’inflation reste surveillée de près, où les politiques monétaires évoluent progressivement et où les marchés financiers alternent entre phases d’optimisme et périodes de volatilité.

De nombreux investisseurs cherchent à identifier les secteurs susceptibles de porter la croissance des prochaines années. Au-delà du choix des entreprises individuelles, une approche souvent utilisée consiste à observer les grandes tendances sectorielles susceptibles de bénéficier de transformations économiques, technologiques ou énergétiques.

En 2026, plusieurs secteurs continuent d’attirer l’attention des investisseurs, notamment en raison de leur rôle potentiel dans les grandes transitions en cours.

Dans un portefeuille d’investissement, toutes les entreprises n’évoluent pas au même rythme. Certaines industries connaissent des périodes de forte expansion lorsque de nouvelles technologies émergent, que la demande mondiale évolue rapidement ou encore lorsque les politiques publiques soutiennent certains domaines. Identifier ces dynamiques peut permettre aux investisseurs d’exposer une partie de leur portefeuille à des secteurs porteurs, tout en conservant une diversification suffisante.

⚠️ Important : même les secteurs considérés comme prometteurs peuvent connaître des périodes de baisse ou de volatilité.

Intelligence artificielle et technologies avancées

L’intelligence artificielle reste l’un des thèmes d’investissement les plus suivis depuis plusieurs années. Son développement dépasse aujourd’hui largement le cadre des entreprises technologiques traditionnelles et se diffuse progressivement dans de nombreux secteurs de l’économie.

On retrouve désormais l’IA dans les logiciels professionnels, l’automatisation industrielle, la cybersécurité, l’analyse de données ou encore certains services financiers. Cette diffusion progressive explique pourquoi l’écosystème technologique dans son ensemble notamment les semi-conducteurs, le cloud computing et les infrastructures numériques continue d’être étroitement surveillé par les investisseurs.

Cependant, la valorisation de certaines entreprises technologiques peut être élevée, ce qui implique d’aborder ce secteur avec prudence.

Crypto-actifs et infrastructures blockchain

Les crypto-actifs continuent également de susciter l’intérêt d’une partie des investisseurs. Depuis l’émergence du Bitcoin il y a plus d’une décennie, l’écosystème blockchain s’est progressivement développé autour de plusieurs usages : paiements numériques, finance décentralisée (DeFi), tokenisation d’actifs ou encore infrastructures de contrats intelligents.

Certaines entreprises technologiques, institutions financières et gestionnaires d’actifs suivent désormais ce marché de plus près, notamment en raison de son potentiel d’innovation dans les infrastructures financières et les systèmes de transfert de valeur.

Au-delà des cryptomonnaies elles-mêmes, l’écosystème inclut également des entreprises liées aux plateformes d’échange, aux services de conservation d’actifs numériques, aux solutions de paiement ou encore au développement d’applications basées sur la blockchain.

Toutefois, les crypto-actifs restent une classe d’actifs particulièrement volatile. Les prix peuvent fluctuer fortement en fonction des conditions macroéconomiques, de la réglementation ou encore du sentiment des investisseurs.

Une plateforme pour accéder facilement à plusieurs secteurs

Pour les investisseurs particuliers, suivre ces différentes tendances peut parfois sembler complexe. C’est pourquoi certaines plateformes d’investissement proposent aujourd’hui un accès simplifié à plusieurs classes d’actifs depuis une seule application.

Par exemple, Bitpanda permet d’accéder à différents marchés au sein d’une même plateforme, notamment :

  • actions
  • ETF
  • crypto-actifs
  • métaux précieux

Cette approche multi-actifs peut permettre aux investisseurs de diversifier plus facilement leur portefeuille et d’exposer différentes parties de leur allocation à plusieurs secteurs ou thématiques économiques.

L’idée n’est pas de miser uniquement sur une tendance, mais plutôt de construire progressivement une stratégie d’investissement diversifiée en fonction de son profil et de ses objectifs.

👉 Accéder aux Actions & ETF sur Bitpanda

Transition énergétique, infrastructures électriques et pétrole

La transition énergétique reste un thème structurant pour les prochaines décennies. Plusieurs segments attirent l’attention des marchés, notamment les énergies renouvelables, les infrastructures électriques, le stockage d’énergie ou encore les réseaux intelligents.

La montée en puissance des véhicules électriques, des centres de données ou de l’électrification industrielle pourrait continuer d’augmenter la demande en énergie et en infrastructures énergétiques modernes.

Parallèlement, le marché du pétrole reste un élément central de l’équilibre énergétique mondial. Les tensions géopolitiques, les décisions de production des pays exportateurs et les dynamiques de la demande mondiale peuvent provoquer des variations importantes des prix de l’énergie.

Historiquement, plusieurs périodes de hausse rapide du pétrole souvent qualifiées de chocs pétroliers ont eu un impact significatif sur l’économie mondiale, notamment via l’augmentation des coûts de transport, de production et d’énergie.

Dans un contexte où certaines régions du monde restent exposées à des tensions géopolitiques et où la demande énergétique continue de croître, certains analystes évoquent régulièrement la possibilité de nouvelles périodes de tension sur les prix du pétrole.

Pour les investisseurs, cela signifie que les entreprises liées à l’énergie ou aux infrastructures pétrolières peuvent parfois bénéficier de ces cycles haussiers, tandis que d’autres secteurs peuvent être pénalisés par la hausse des coûts énergétiques.

Santé, biotechnologies et innovation médicale

Le secteur de la santé reste également un pilier important pour de nombreux portefeuilles. Plusieurs tendances soutiennent son développement, notamment le vieillissement de la population, les innovations médicales et biotechnologiques ou encore les progrès dans les technologies de santé.

Les entreprises de biotechnologie, les fabricants d’équipements médicaux et certaines sociétés pharmaceutiques continuent d’être étudiés par les investisseurs à la recherche de potentiel d’innovation à long terme. Toutefois, ce secteur peut être volatil, notamment pour les petites entreprises dont les résultats dépendent souvent d’essais cliniques.

Métaux stratégiques, matières premières et cybersécurité

La transition énergétique et le développement technologique reposent sur l’utilisation croissante de certains métaux et matières premières. Plusieurs ressources jouent un rôle clé dans différents secteurs, comme le cuivre pour les infrastructures électriques, le lithium pour les batteries ou encore le nickel pour certaines technologies de stockage d’énergie.

Ces matériaux sont parfois considérés comme des ressources stratégiques pour les nouvelles technologies et l’électrification de l’économie. Toutefois, les matières premières restent des actifs cycliques dont les prix peuvent fluctuer fortement selon l’offre et la demande mondiale.

Dans un registre différent mais tout aussi stratégique, la cybersécurité devient un enjeu majeur avec la digitalisation croissante des entreprises. La protection des données et la sécurisation des infrastructures numériques sont devenues des priorités pour de nombreuses organisations.

Conclusion

En 2026, plusieurs secteurs continuent d’attirer l’attention des investisseurs, notamment l’intelligence artificielle, la transition énergétique, la santé, les métaux stratégiques ou encore la cybersécurité.

Les tensions possibles sur les marchés de l’énergie, notamment autour du pétrole, rappellent également que certains secteurs peuvent être influencés par des dynamiques géopolitiques et économiques plus larges.

Dans ce contexte, disposer d’outils permettant d’accéder à plusieurs classes d’actifs peut aider les investisseurs à adapter leur portefeuille et à suivre ces grandes tendances économiques sur le long terme.

⚠️ Disclaimer

Les services d’exécution uniquement pour les Actions, ETF et ETC sont fournis par Bitpanda Financial Services GmbH. Ceci ne constitue pas une offre au public. Investir comporte un risque de perte, et les performances passées ne préjugent pas des performances futures. Évaluez votre situation personnelle et consultez un conseiller indépendant avant d’investir. Des frais (spreads, frais de change, coûts de produits et taxes) peuvent s’appliquer et réduire les rendements. Consultez la documentation des coûts avant toute opération.

Catégories
Banque & Finance Bourse En vedette

Quand la théorie rencontre la réalité des marchés financier

« En théorie, il n’y a pas de différence entre théorie et pratique. En pratique, la différence est énorme. » Cette phrase résume parfaitement l’investissement moderne.

De nombreuses stratégies paraissent supérieures sur le papier. Elles reposent sur des données historiques solides, des raisonnements statistiques élégants et des modèles cohérents.

Mais une fois transposées dans le monde réel celui des frais, des impôts, des transactions et des comportements humains leur avantage théorique peut disparaître. Le débat autour de la pondération égale du S&P 500 illustre précisément cette différence.

Avant de continuer, un grand merci à notre sponsor Trade Republic pour son soutien 🤝
👉 J’ouvre mon compte Trade Republic

J’ouvre mon compte Trade Republic

Un indice est une idée, un fonds est une exécution

Un indice comme le S&P 500 n’est qu’une construction statistique. Il ne détient aucun actif, ne paie aucun frais et ne subit aucune contrainte fiscale. À l’inverse, un fonds indiciel doit acheter et vendre des titres, gérer les flux d’investisseurs, payer des frais de gestion et absorber les coûts de transaction. Autrement dit, l’indice vit dans un univers théorique sans friction, tandis que le fonds évolue dans le monde réel. Et c’est dans cet écart que se joue une partie essentielle de la performance.

La montée des interrogations sur la concentration

Ces dernières années, le S&P 500 s’est fortement concentré autour de quelques géants technologiques comme Nvidia, Apple ou Alphabet, chacun représentant plus de 5 % de l’indice. Cette concentration alimente une interrogation légitime : un indice peut-il encore être considéré comme réellement diversifié lorsqu’il dépend autant d’un petit nombre d’entreprises ? C’est ce contexte qui a ravivé l’intérêt pour une alternative plus équilibrée : la pondération égale.

La logique séduisante de la pondération égale

Le S&P 500 Equal Weight repose sur un principe simple : chaque entreprise représente environ 1/500e de l’indice, soit près de 0,2 %, avec un rééquilibrage régulier. Contrairement à la pondération par capitalisation où les plus grandes entreprises dominent cette méthode répartit le poids uniformément. En théorie, cela augmente l’exposition aux entreprises de taille moyenne, réduit le risque de concentration et force mécaniquement à vendre les titres devenus trop chers pour racheter ceux qui ont sous-performé. Historiquement, depuis 2003, l’indice Equal Weight a d’ailleurs légèrement surperformé l’indice classique. Sur le papier, l’argument paraît solide.

Là où la théorie se fissure

Mais un investisseur ne peut pas acheter un indice.

Il doit acheter un fonds.

Prenons deux exemples :

  • le Invesco S&P 500 Equal Weight ETF
  • le Vanguard 500 Index Fund

L’indice Equal Weight a légèrement battu le S&P 500 classique.

Pourtant, le fonds Equal Weight n’a pas battu le fonds traditionnel.

Pourquoi ?

Parce que la pondération égale impose un rééquilibrage fréquent.
Chaque trimestre, le fonds doit :

  • vendre les actions ayant le plus monté
  • racheter celles ayant sous-performé

Ces opérations génèrent :

  • davantage de transactions
  • davantage de frais
  • davantage de frictions fiscales
  • davantage d’écarts de prix

Ces coûts, invisibles dans l’indice théorique, réduisent la performance réelle.

Dans un ETF équipondéré, aucune entreprise ne domine

Ce graphique illustre concrètement la logique de la pondération égale : aucune entreprise ne dépasse réellement 0,5 % du portefeuille, même parmi les dix premières positions. Le contraste avec le S&P 500 traditionnel est frappant, où quelques géants peuvent peser chacun plus de 5 %. Ici, le risque spécifique est fortement dilué et la dépendance à une poignée de valeurs disparaît presque totalement.

Mais cette stabilité apparente repose sur un mécanisme actif en arrière-plan : pour maintenir ces pondérations homogènes, le fonds doit rééquilibrer régulièrement ses positions. Autrement dit, la diversification parfaite n’est pas gratuite elle nécessite des ajustements fréquents, et donc des coûts invisibles qui finissent par peser sur la performance réelle.

Le poids invisible des frictions

La différence peut sembler modeste quelques dixièmes de point par an mais sur vingt ans, l’écart devient significatif. L’effet cumulatif des frais et des coûts de rotation transforme un léger avantage théorique en désavantage pratique. Plus une stratégie semble optimisée sur le plan statistique, plus elle nécessite d’interventions. Et plus elle nécessite d’interventions, plus elle engendre de coûts. L’optimisation mathématique ne garantit donc pas l’efficacité opérationnelle.

Simplicité contre sophistication

Cette observation dépasse la seule question du S&P 500. Elle rappelle qu’un modèle académique ignore les coûts, tandis qu’un portefeuille réel les subit en permanence. De nombreuses stratégies séduisantes factorielles, smart beta ou rotations tactiques reposent sur des écarts de performance relativement faibles. Lorsque ces écarts sont inférieurs aux frictions qu’elles génèrent, l’avantage disparaît. Paradoxalement, la stratégie la plus simple large diversification, pondération par capitalisation, faibles frais et faible rotation reste souvent la plus robuste, non parce qu’elle est théoriquement parfaite, mais parce qu’elle minimise les pertes invisibles.

La vraie question

La différence entre théorie et pratique n’est pas marginale, elle est structurelle. En théorie, une stratégie doit battre un indice. En pratique, elle doit battre les frais, les impôts, les coûts de transaction et parfois même les propres comportements de l’investisseur. La question n’est donc pas : « Quelle stratégie est la meilleure sur le papier ? » mais plutôt : « Quelle stratégie reste efficace après toutes les frictions du monde réel ? » Car en finance, l’écart paraît minime au départ… mais sur plusieurs décennies, il devient décisif.

Catégories
Bourse En vedette Investissement & Stratégies

Comparer deux entreprises sans cadre commun est une erreur (avec Zonebourse)

Analyser une action est un exercice exigeant. Mais comparer deux entreprises sans méthodologie homogène est encore plus risqué.

Chez Parlons Finance, nous avons appris avec le temps que le principal piège n’est pas l’absence d’opinion. Le véritable risque réside dans une comparaison mal structurée.

Deux sociétés d’un même secteur peuvent afficher :

  • des trajectoires boursières très différentes,
  • des niveaux de valorisation divergents,
  • des dynamiques fondamentales contrastées,

…tout en étant perçues comme “équivalentes” par un investisseur pressé.

C’est précisément pour éviter cet écueil que nous utilisons les Ratings Zonebourse comme point d’entrée analytique.

Non pas comme outil de décision automatique. Mais comme cadre structurant.

Une base de comparaison homogène

Les Ratings Zonebourse sont calculés quotidiennement sur environ 60 000 sociétés cotées dans le monde.

Seules celles disposant d’un historique et de données financières suffisantes – environ 10 000 entreprises – sont réellement comparables.

L’intérêt est double :

  1. Uniformiser la lecture des données
  2. Identifier rapidement les forces et faiblesses relatives

En un seul écran, il est possible d’évaluer :

  • la solidité financière,
  • la croissance et la rentabilité,
  • la valorisation,
  • la dynamique boursière (momentum),
  • le consensus des analystes.

Ce n’est pas la note globale qui apporte le plus de valeur.

Ce sont les écarts entre les critères.

Cas pratique : Eli Lilly vs Novo Nordisk

La rivalité entre Eli Lilly et Novo Nordisk dans le traitement de l’obésité illustre parfaitement l’intérêt d’un cadre commun d’analyse.

Suite à des résultats cliniques jugés décevants pour son traitement CagriSema, Novo Nordisk a récemment subi une forte correction boursière, tandis qu’Eli Lilly bénéficiait d’un regain d’intérêt des investisseurs.

Sans outil structuré, l’analyse peut vite devenir émotionnelle.

Avec un cadre homogène, la lecture devient plus rationnelle.

1. Momentum

La chute du titre Novo Nordisk a mécaniquement dégradé sa dynamique boursière sur 12 mois.

À l’inverse, Eli Lilly conserve une trajectoire plus favorable.

Le signal n’est pas une conclusion.
Il indique simplement où se concentre actuellement la confiance du marché.

2. Valorisation

Eli Lilly se traite historiquement sur des multiples plus élevés.

Cela signifie que le marché intègre déjà une forte prime liée :

  • à son avance clinique,
  • à son potentiel de croissance,
  • à sa visibilité commerciale.

Novo Nordisk, après correction, peut apparaître relativement moins exigeant en valorisation.

La question stratégique devient alors :

  • Paie-t-on la qualité déjà démontrée ?
  • Ou une entreprise en phase d’ajustement ?

3. Fondamentaux

Les deux groupes restent solides financièrement.

Cependant, dans l’industrie pharmaceutique, quelques points d’écart dans l’efficacité clinique peuvent modifier :

  • les anticipations de ventes,
  • les perspectives de parts de marché,
  • et donc les modèles de valorisation.

Ce type de divergence apparaît immédiatement lorsque l’on observe les critères séparément plutôt qu’une simple performance boursière.

Un filtre avant l’analyse approfondie

Les Ratings ne remplacent pas l’étude des rapports annuels, ni l’analyse sectorielle.

Ils servent de premier filtre rationnel.

Ils permettent :

  • de gagner du temps,
  • de structurer la réflexion,
  • d’éviter les biais liés à l’actualité immédiate.

En investissement, le danger n’est pas l’absence d’opinion.
C’est l’opinion formée sans cadre.

Conclusion

Comparer deux entreprises exige une méthodologie commune.

Sans référentiel homogène, le risque est de confondre perception et réalité.

Les Ratings Zonebourse constituent, pour nous, un outil efficace pour structurer cette première étape d’analyse avant d’approfondir.

Pour découvrir l’ensemble des outils proposés par Zonebourse, dont les Ratings :

(Contenu informatif – ceci ne constitue pas un conseil en investissement.)

Catégories
Economie Energie Macro

Comment se forment les prix du pétrole ?

Le pétrole, l’or noir convoité depuis la révolution industrielle, fait souvent rêver les financiers.

Entre trading à court et long terme, marchés de gré à gré, contrats spot ou futures, il existe de nombreuses façons de créer de la valeur avec le pétrole.

Le baril d’or noir échangé sur les marchés n’a pas qu’une valeur financière, il est aussi un facteur de tensions géopolitiques et économiques. D’autant plus qu’il est présent dans le monde entier, avec plus de 160 types de pétrole.

Sur les marchés financiers, le pétrole est représenté par trois indices majeurs :

  • Le Brent, pétrole de la mer du Nord, référence pour environ deux tiers des transactions mondiales
  • Le West Texas Intermediate (WTI), référence pour le pétrole américain
  • Le Dubai Light, référence pour le marché asiatique et le Moyen-Orient

Il n’existe donc pas un seul prix mondial du pétrole. Néanmoins, une organisation joue un rôle important dans la régulation du marché : l’Organisation des pays exportateurs de pétrole, plus connue sous le nom d’OPEP.

Elle regroupe une quinzaine de pays, dont l’Arabie saoudite, l’Iran, l’Irak ou encore le Venezuela, représentant environ 40 % de la production mondiale. Son objectif est de coordonner les politiques de production afin d’éviter une chute des prix et de préserver les revenus des pays producteurs. En 2016, son influence s’élargit avec la création de l’OPEP+, qui inclut d’autres producteurs majeurs comme la Russie, le Mexique ou la Malaisie.

Ces organisations influencent donc les exportations et, indirectement, le prix du pétrole qui dépend principalement de l’offre et de la demande, elles-mêmes influencées par des facteurs économiques, géopolitiques et financiers.

Comment l’offre de pétrole influence-t-elle les prix ?

La logique économique est simple : tout ce qui réduit la production mondiale tend à faire monter les prix.

Dans ce sens, les guerres ou les instabilités politiques dans des pays producteurs peuvent perturber la production ou les exportations, faisant grimper les prix, notamment lorsque le pétrole devient prioritaire pour la consommation intérieure du pays concerné. Les sanctions économiques peuvent produire le même effet, en limitant les exportations d’un pays producteur et en réduisant l’offre disponible sur le marché mondial.

Les catastrophes naturelles, comme les ouragans dans le golfe du Mexique, peuvent aussi endommager des plateformes ou des raffineries, réduisant temporairement la production et poussant les prix à la hausse.

Les quotas de production, notamment décidés par l’OPEP, jouent également un rôle clé. Si l’OPEP décide de réduire la production, l’offre mondiale diminue et les prix montent. Un exemple historique reste l’embargo pétrolier de 1973 mené par plusieurs pays producteurs contre les États-Unis et leurs alliés, événement que l’on appelle aujourd’hui le premier choc pétrolier.

À l’inverse, lorsque l’OPEP augmente ses quotas de production, l’offre mondiale progresse et les prix ont tendance à baisser. Cette baisse peut aussi être provoquée par l’exploitation de nouveaux gisements ou par l’amélioration des technologies d’extraction, qui augmentent la production disponible sur le marché.

Comment la demande de pétrole influence-t-elle les prix ?

La logique reste celle de l’offre et de la demande : lorsque la consommation mondiale augmente, les prix montent.

Une forte croissance économique entraîne une hausse de la production industrielle et des transports, ce qui augmente la consommation de pétrole. Une croissance démographique peut également accroître la demande énergétique globale, donc faire croître les prix du pétrole. Les périodes hivernales jouent aussi un rôle, car les besoins en chauffage augmentent la consommation d’énergie, donc la demande et le prix.

À l’inverse, des hivers doux réduisent les besoins énergétiques, entraînant une baisse de la demande et donc des prix. Les crises économiques peuvent produire un effet similaire. La crise financière de 2008, par exemple, a ralenti l’activité mondiale : moins de production, moins de transport, donc une baisse de la consommation de pétrole et une chute des prix.

La crise du Covid en 2020 illustre encore plus fortement ce phénomène. Les confinements ont provoqué un effondrement de la demande mondiale. Faute de capacités de stockage suffisantes, le prix du pétrole américain est même devenu temporairement négatif, les vendeurs payant pour se débarrasser de leurs stocks.

Enfin, le développement des énergies alternatives contribue aussi à réduire la demande de pétrole. Lorsque des pays utilisent davantage d’énergie nucléaire, solaire, éolienne ou développent les véhicules électriques, la consommation de pétrole diminue, ce qui pèse sur les prix.

Les facteurs financiers : des amplificateurs de prix

Le prix du pétrole ne dépend pas uniquement de l’offre et de la demande physique. Comme tout actif financier, il est aussi influencé par la spéculation.

Les investisseurs anticipent les évolutions futures du marché. Si l’on pense que la demande va diminuer, les prix peuvent baisser avant même que cette baisse ne se produise réellement. Par exemple, l’annonce de la construction de nombreuses centrales nucléaires ou le développement massif des énergies renouvelables peut pousser les investisseurs à anticiper une moindre consommation future de pétrole, ce qui entraîne une baisse des prix sur les marchés.

Les devises jouent également un rôle important, car le pétrole est coté en dollars américains. Lorsque le dollar baisse, le pétrole devient moins cher pour les pays utilisant d’autres monnaies, ce qui stimule la demande et peut entraîner une hausse des prix du pétrole.

Finalement, le prix du pétrole résulte d’un équilibre complexe entre offre, demande et anticipations financières, constamment influencé par l’économie mondiale et les événements géopolitiques.

Sources :

Catégories
Banque & Finance Cryptomonnaies En vedette

FinTech : levier de puissance pour l’Europe

La souveraineté est longtemps restée associée aux États, à leur capacité à défendre leurs frontières, à battre monnaie ou à décider de leur politique budgétaire.

Pourtant, à l’ère de la mondialisation et de la numérisation accélérée de l’économie, cette notion s’est profondément transformée. Pour l’Union européenne, la souveraineté se joue désormais aussi dans la maîtrise de ses infrastructures économiques, financières et technologiques.

Dans ce contexte, la finance occupe une place centrale. Elle structure les échanges, conditionne le financement de l’économie réelle et repose sur des systèmes de plus en plus numériques. La FinTech, qui désigne l’ensemble des innovations technologiques appliquées aux services financiers, s’impose ainsi comme un acteur clé de cette transformation. Paiements numériques, plateformes d’investissement, solutions basées sur la blockchain ou encore néobanques : ces nouveaux acteurs redessinent les circuits financiers traditionnels et déplacent les centres de contrôle.

Le lien entre FinTech et souveraineté apparaît alors évident. Selon qu’elles soient développées, hébergées et contrôlées en Europe ou dépendantes d’acteurs extra-européens, ces technologies peuvent renforcer l’autonomie stratégique de l’Union ou accentuer ses vulnérabilités. Or, la finance et la FinTech mondiales sont aujourd’hui dominées par des acteurs américains (infrastructures de paiement, fournisseurs de technologies critiques, plateformes financières numériques, etc.), ce qui pousse le Vieux Continent à s’interroger sur sa capacité à conserver un contrôle effectif sur ses propres flux financiers.

Le projet européen reste inabouti, en témoigne : en 2024, l’Amérique du Nord a concentré à elle seule près de 67 % des investissements mondiaux en FinTech, contre seulement 18 % pour l’Europe, un écart significatif qui illustre le déséquilibre structurel du financement et la difficulté pour l’écosystème européen de rivaliser avec la puissance de feu américaine.

La FinTech se trouve donc au croisement de plusieurs enjeux de puissance : innovation, compétitivité, sécurité et souveraineté. Comprendre comment cet écosystème fonctionne constitue une étape essentielle pour penser l’avenir de la souveraineté financière de l’Union européenne.

Paiements numériques et blockchain : réduire la dépendance

Les paiements numériques, comme les stablecoins basés sur la blockchain, permettent des échanges rapides, peu coûteux et transfrontaliers, sans dépendre de SWIFT ou des réseaux de cartes comme Visa et Mastercard. Plus de 90 % des stablecoins sont adossés au dollar (USDT, USDC), combinant programmabilité et stabilité pour des règlements instantanés ou l’usage en finance décentralisée. Ces innovations ouvrent la voie à des solutions européennes plus autonomes, bien que la réglementation et l’adoption restent des freins.

Néo-banques et plateformes alternatives : une finance plus proche des citoyens

Les néo-banques et plateformes FinTech challengent le modèle bancaire traditionnel. Elles introduisent davantage de concurrence, améliorent l’accès au crédit pour les petites entreprises et proposent des services financiers souvent plus adaptés aux besoins numériques. La France, par exemple, s’affirme comme le premier écosystème FinTech de l’Union européenne, avec plus de 1 200 entreprises, près de 50 000 emplois créés et 14 licornes.

Lien avec la souveraineté : moins dépendre des réseaux bancaires historiques dominés par quelques grands groupes internationaux signifie plus de diversité et de résilience dans l’offre de services financiers européens.

Financement participatif : soutenir l’économie réelle

Le crowdfunding, le peer-to-peer lending et d’autres formes de financement participatif permettent aux PME et projets locaux de lever des fonds sans dépendre exclusivement des grandes institutions financières. Entre 2018 et 2023, le marché européen du crowdfunding a plus que doublé, passant de moins de 5 milliards d’euros levés par an à environ 10–12 milliards d’euros annuels. Cette inclusion financière est un facteur de résilience économique : elle dilue les dépendances à quelques grands prêteurs et élargit l’accès au capital.

Un écosystème dynamique mais fragmenté

L’écosystème FinTech européen a connu une croissance rapide au cours de la dernière décennie. En France par exemple, cette dynamique s’est traduite par une croissance estimée à près de 20 % entre 2023 et 2024.

Toutefois, derrière ce dynamisme apparent, l’écosystème FinTech européen demeure confronté à plusieurs fragilités structurelles. La concurrence des acteurs américains et chinois, les déséquilibres persistants en matière de financement et la fragmentation du marché européen limitent encore l’émergence de champions capables de s’imposer à l’échelle mondiale.

L’Europe compte plus de 8 000 start-ups FinTech, principalement à Londres, Berlin, Amsterdam et Paris, actives dans les paiements numériques, l’insurtech, le crédit et la finance décentralisée. La richesse de ce tissu entrepreneurial et des cadres réglementaires communs stimule l’innovation et la concurrence. Cependant, la fragmentation persiste : différences juridiques, fiscales et opérationnelles entre États membres, disparités d’accès au financement et exigences locales freinent l’expansion paneuropéenne des FinTech.

Malgré ses atouts, l’écosystème FinTech européen reste limité par plusieurs faiblesses structurelles. Selon le Pulse of Fintech 2025 de KPMG, les Amériques ont attiré 66,5 milliards de dollars de financements FinTech en 2025, dont 56,6 milliards aux seuls États-Unis, contre 29,2 milliards pour l’ensemble de la région EMEA. Cet écart illustre la domination persistante des États-Unis dans le financement de l’innovation financière et souligne le défi auquel l’Europe est confrontée pour rivaliser à l’échelle mondiale. Enfin, l’Europe dépend fortement de technologies étrangères : cloud dominé par AWS, Microsoft Azure ou Google Cloud, réseaux de paiement extra-européens et écosystèmes mobiles contrôlés par des acteurs étrangers.

Concurrence mondiale : États-Unis et Chine en tête

Sur la scène internationale, deux pôles concentrent l’essentiel de la puissance FinTech : les États-Unis, leader incontesté du secteur, et la Chine.

Cette dernière est une rivale puissante, qui a massivement adopté des méthodes de paiements mobiles et des écosystèmes numériques intégrés. Une stratégie étatique volontariste en faveur des champions nationaux a permis l’essor d’acteurs comme Alipay ou WeChat Pay (représentant ensemble plus de 90 % du marché des portefeuilles mobiles chinois). Néanmoins, à l’inverse du marché européen, le marché chinois reste largement cloisonné grâce à un protectionnisme éducateur qui protège les entreprises nationales et leur permet de se développer et d’innover.

Régulation européenne : un équilibre stratégique

La régulation occupe une place centrale dans le développement de l’écosystème FinTech européen. Souvent perçue comme un frein à l’innovation, elle constitue en réalité l’un des piliers du modèle financier européen.

L’Union européenne a fait le choix d’un cadre exigeant, reposant sur la protection des consommateurs, la résilience du système financier et la maîtrise des risques technologiques. Ce choix contraste avec des approches plus permissives observées ailleurs dans le monde, mais il confère à l’écosystème européen un avantage structurel en matière de crédibilité et de robustesse.

En France, l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) joue un rôle clé dans l’encadrement et l’accompagnement des acteurs FinTech. C’est un organe de la Banque de France, reconnu au niveau international pour son haut niveau d’exigence en matière de supervision bancaire, financière et assurantielle. Son objectif est de permettre l’émergence de solutions innovantes tout en garantissant un haut niveau de sécurité pour les utilisateurs et le système financier dans son ensemble.

À l’échelle européenne, plusieurs textes structurants illustrent cette volonté de concilier innovation et souveraineté. La directive DSP2 a favorisé l’essor de l’Open Banking, et le règlement MiCA (Markets in Crypto-Assets) vise à encadrer les crypto-actifs et les stablecoins, pour limiter les risques de fragmentation réglementaire et renforcer la stabilité financière.

Cette vision contraste avec celle des États-Unis, où l’innovation FinTech s’est longtemps développée dans un cadre réglementaire plus fragmenté et souvent plus permissif (il existe plus de 50 autorités étatiques de licences financières aux États-Unis), pouvant mener à une incertitude juridique et économique. En Chine, c’est l’État qui contrôle et oriente les innovations financières, en soutenant ses champions nationaux et en ne laissant qu’une moindre liberté aux acteurs privés.

Une souveraineté financière encore en construction

La FinTech est un levier clé pour renforcer la souveraineté financière européenne, en réinventant paiements, financement et infrastructures autrefois dominés par des acteurs extra-européens. Malgré le dynamisme de l’écosystème, la qualité des talents et un cadre réglementaire solide, la fragmentation du marché, les déséquilibres de financement et les dépendances technologiques freinent l’émergence de champions paneuropéens.

La régulation européenne, centrée sur la protection et la stabilité, est essentielle pour sécuriser l’innovation et instaurer la confiance, mais elle doit évoluer pour accompagner la transformation rapide du secteur. La souveraineté financière se construira en équilibrant innovation et sécurité, grâce à un effort coordonné des institutions, régulateurs, acteurs financiers et innovateurs.

Merci à Guillaume Gonnot, Axel Prissé et Julie Gautier pour leur contribution à cet article.

Sources :

KPMG : Pulse of Fintech H2 2025

France Fintech : chiffres clés 2025

Catégories
Bourse En vedette Investissement & Stratégies

Bitpanda lance une offre exclusive sur les métaux précieux : 15€ offerts en argent

Dans un contexte où l’inflation reste un sujet central et où les marchés alternent phases de rebond et épisodes de stress, de plus en plus d’investisseurs cherchent des actifs capables de stabiliser un portefeuille.

Parmi eux, les métaux précieux reprennent une place importante et pas uniquement l’or.

C’est justement l’objectif de la nouvelle activation de Bitpanda autour des métaux précieux tokenisés (M-Token) : faciliter l’accès à l’or, l’argent, le platine ou le palladium, via une application multi-actifs, avec une offre réservée aux nouveaux utilisateurs.

Pourquoi les métaux précieux reviennent sur le devant de la scène

Historiquement, l’or et l’argent sont associés à la notion de “valeur tangible”. Mais au-delà de l’image, leur intérêt revient souvent dans trois situations :

  • Quand l’incertitude augmente (politique, géopolitique, macroéconomie)
  • Quand les monnaies perdent du pouvoir d’achat (inflation)
  • Quand la volatilité boursière redevient forte

En pratique, de nombreux investisseurs voient les métaux comme un outil de diversification : ils ne remplacent pas les actions ou les ETF, mais peuvent contribuer à équilibrer un portefeuille trop exposé à un seul scénario.

Focus 2026 : l’argent (Silver) n’est pas seulement “le petit frère” de l’or

L’or concentre souvent l’attention médiatique. Pourtant, l’argent possède une particularité : il est à la fois un actif “patrimonial” (valeur refuge dans l’imaginaire collectif) et un métal industriel très utilisé.

On le retrouve notamment dans :

  • certains composants électroniques,
  • des usages liés à l’énergie et à l’industrie,
  • divers segments technologiques.

Résultat : l’argent est parfois perçu comme un actif à double moteur (investissement + industrie), ce qui explique pourquoi il revient dans les discussions quand les investisseurs reconsidèrent leur allocation.

⚠️ Important : cela ne constitue pas une promesse de performance. Le prix de l’argent fluctue et peut baisser.

Bitpanda Metals : investir sans gérer le “problème du physique”

Acheter des métaux en direct (pièces, lingots) peut vite devenir contraignant : stockage, assurance, logistique, revente, etc.

Bitpanda propose une approche plus simple avec Bitpanda Metals, permettant d’investir de manière fractionnée, tout en mettant en avant des éléments clés :

  • Vous détenez un droit de propriété sur le métal sous-jacent
  • Métaux adossés physiquement, stockés en Suisse et certifiés LBMA
  • Stockage sécurisé en Suisse
  • Investissement fractionné dès 1€
  • Accès via une plateforme européenne multi-actifs (métaux + crypto + actions/ETF/ETC dans la même app)
    Bitpanda FR Affiliates – Metals…

L’idée est donc de rendre l’exposition aux métaux plus accessible, y compris pour les profils débutants qui veulent tester une allocation “petite brique”, plutôt qu’un achat important en une fois.

L’offre actuelle : 15€ offerts en argent, limitée à 2 000 nouveaux utilisateurs

Bitpanda déploie une offre promotionnelle centrée sur les métaux précieux avec une mécanique très simple :

🎁 Récompense : 15€ offerts en Silver (argent)
✅ Conditions :

  • Être nouveau client Bitpanda
  • S’inscrire uniquement via le lien dédié (tracking obligatoire)
  • Finaliser la vérification d’identité (KYC)
  • Effectuer un trade d’au moins 50€ en métaux (or/argent/platine/palladium)

⏳ Fenêtre : offre limitée dans le temps et surtout limitée aux 2 000 premiers participants éligibles.

👉 Lien dédié à utiliser (obligatoire pour être éligible) :

Comment participer (pas à pas)

  1. S’inscrire via le lien dédié (sinon l’offre ne peut pas être attribuée)
  2. Faire la vérification d’identité (KYC)
  3. Effectuer un premier dépôt si nécessaire
  4. Réaliser un achat (trade) ≥ 50€ en métaux précieux
  5. La récompense est ensuite créditée sur le compte Bitpanda des participants éligibles (dans les conditions prévues par l’offre).

Pour qui cela peut faire sens (et pour qui non)

Cette offre peut être pertinente si vous :

  • voulez découvrir les métaux sans acheter de pièces/lingots,
  • cherchez à diversifier une petite partie de votre allocation,
  • aimez l’idée de centraliser plusieurs classes d’actifs dans une app.

En revanche, si vous cherchez une “garantie” ou un rendement certain, ce n’est pas adapté : les métaux restent des actifs dont le prix peut varier à la hausse comme à la baisse.

Conclusion

Les métaux précieux reviennent progressivement dans les stratégies de diversification, et l’argent (Silver) attire à nouveau l’attention, notamment parce qu’il combine dimension “réserve de valeur” et usages industriels.

Avec cette opération limitée, Bitpanda mise sur une mécanique simple : un premier trade en métaux pour déclencher 15€ offerts en argent, dans la limite de 2 000 nouveaux utilisateurs.

👉 Accès à l’offre (lien dédié obligatoire) :

Disclaimer (conformité)

Capital à risque. CG applicables. Réservée aux 2 000 premiers nouveaux utilisateurs. Inscription via un lien d’affiliation promotionnel obligatoire. Une offre spéciale par utilisateur. Bitpanda Metals (M-Token) est un produit non réglementé proposé par Bitpanda Metals GmbH (FN 511923 d). Bitpanda Metals ne constitue pas un crypto-actif au sens de MiCAR. Les performances passées ne préjugent pas des performances futures. Vous pouvez perdre tout ou partie du capital investi.

Catégories
Actualité Economie En vedette

Le Japon, nouveau hub des semi-conducteurs

Le « déclin » japonais dans les semi-conducteurs est souvent raconté comme une fable morale : hubris des années 1980, choc du Plaza Accord en 1985, éclatement de la bulle, sclérose des conglomérats, puis effacement face à la Silicon Valley, Taïwan et la Corée. Ce récit est séduisant parce qu’il est simple.

L’industrie des semi-conducteurs n’est pas un marché unique ; c’est une superposition de couches : matériaux, chimie, équipements, procédés, fabrication, design, logiciels, intégration système. Lire l’histoire japonaise uniquement à travers les parts de marché finales revient à ignorer cette stratification.

L’âge d’or : la victoire par la discipline industrielle

Historiquement, la domination japonaise s’est ancrée dans un modèle spécifique : l’État développeur, la coopération étroite entre administrations, banques et keiretsu, et une obsession de la qualité industrielle.

Dans les années 1970-1980, la victoire dépend avant tout de la discipline de procédé, du rendement, du contrôle qualité et des volumes. La DRAM la mémoire est alors le « pétrole » de la première ère informatique : une commodité indispensable, tirée par des cycles massifs d’investissement.

C’est le terrain naturel du Japon : industrialisation rigoureuse, sous-traitance ultra spécialisée, culture du zéro défaut, accumulation de savoir tacite. À la fin des années 1980, le Japon dépasse 50 % de parts de marché mondiales. En 1989, six des dix plus grands fabricants de puces sont japonais. NEC, Toshiba et Hitachi dominent la mémoire mondiale.

La véritable rupture intervient dans les années 1990. La valeur se déplace de la mémoire commoditisée vers la logique, où l’avantage compétitif repose de plus en plus sur la conception, les architectures, les outils logiciels et les écosystèmes.

C’est le passage d’un capitalisme de la machine à un capitalisme de la propriété intellectuelle.

Taïwan perfectionne le modèle fabless/foundry à grande échelle : la fabrication devient un service. Les États-Unis consolident leur avance en design, en EDA et en capital-risque. La Corée industrialise la mémoire avec une agressivité capitalistique exceptionnelle.

Le Japon, fidèle à son modèle d’intégration verticale, tarde à s’adapter à cette nouvelle logique de plateforme. Il perd du terrain sur la logique et les produits grand public donc la vitrine.

La retraite stratégique vers les intrants critiques

Pourtant, parler d’effacement est trompeur. Le Japon change de terrain.

Plutôt que de s’épuiser dans une compétition défavorable, il se repositionne sur les intrants critiques : chimies ultra pures, photo-résines, wafers, découpe de précision, inspection de masques, métrologie, équipements de dépôt et de gravure, contrôle des contaminants.

Ces segments sont difficiles à commoditiser. Ils reposent sur des décennies de savoir-faire tacite et d’itérations invisibles. Le Japon ne quitte pas l’industrie : il change d’étage.

Ce déplacement, longtemps interprété comme un recul, apparaît aujourd’hui comme une relocalisation stratégique vers les goulots d’étranglement de la chaîne mondiale. On ne fabrique pas de puces de pointe sans intrants japonais. Le Japon ne disparaît pas : il devient indispensable.

Géopolitiquement, il s’agit d’un déplacement du pouvoir. Au lieu de vendre le produit final, le Japon devient indispensable au produit final.

Plus la production se concentre dans quelques hubs notamment à Taïwan plus la dépendance envers certains intrants augmente. À mesure que les nœuds technologiques avancent (EUV, tolérances atomiques, exigences de pureté extrême), l’importance des fournisseurs de « chokepoints » grandit.

Plus l’industrie se sophistique, plus le Japon redevient central, car la sophistication est précisément son terrain.

Un nouveau point d’inflexion géopolitique

L’architecture géopolitique qui a permis à Taïwan de devenir la fonderie centrale du monde démocratique paraît aujourd’hui fragile. Le « bouclier de silicium » ressemble de plus en plus à une cible.

Ce moment n’est pas une simple histoire de rattrapage japonais, mais une fenêtre d’opportunité. Les vents géopolitiques, les arbitrages énergétiques et la réactivation de la politique industrielle créent les conditions d’un pivot structurel.

C’est dans ce contexte qu’émerge le projet Rapidus, consortium soutenu par l’État visant la production de puces de 2 nanomètres à Hokkaidō.

Certes, la part de marché japonaise est passée de plus de 50 % à la fin des années 1980 à environ 10 % en 2019. Aucun groupe japonais ne figure aujourd’hui parmi les dix premiers mondiaux en revenus. Mais cette lecture masque une réalité plus nuancée.

Le Japon demeure compétitif dans plusieurs segments clés : mémoire NAND, semi-conducteurs de puissance, microcontrôleurs, capteurs d’image CMOS. Surtout, il conserve une position dominante dans de nombreux intrants critiques.

L’histoire n’est donc pas celle d’un effondrement, mais d’une mutation : le passage d’une puissance visible de produits finis à une puissance structurelle des infrastructures invisibles. Dans un monde où la résilience des chaînes d’approvisionnement devient stratégique, cette invisibilité pourrait bien redevenir un avantage décisif.

La panique américaine face à la montée japonaise

Le volume massif de production japonaise dans les années 1970-1980 était si écrasant qu’il déclencha une véritable panique à Washington. À mesure que le Japon gagnait en dynamisme économique, les décideurs américains commencèrent à le percevoir comme un concurrent stratégique majeur.

Ils s’inquiétaient notamment du fait que des entreprises japonaises, soutenues par des subventions à l’exportation, inondaient le marché américain de puces et d’électronique grand public afin d’évincer les acteurs américains, tout en maintenant un accès limité au marché japonais.

L’accord de 1986 : un commerce administré

Face au mécontentement croissant, les États-Unis firent pression sur Tokyo, aboutissant à l’Accord nippo-américain sur les semi-conducteurs.

Cet accord autorisait Washington à imposer des prix minimums sur les puces vendues aux États-Unis et exigeait que la part étrangère du marché japonais des semi-conducteurs passe de 10 % à 20 %.

Conçu comme un accord de commerce administré visant à empêcher le « dumping », il eut un double effet : il affaiblit la compétitivité japonaise à l’export et facilita l’ascension de concurrents américains, sud-coréens et taïwanais.

Les entreprises américaines, se recentrant sur la conception, commencèrent progressivement à confier leur production à des fondeurs comme TSMC.

L’effet domino : l’électronique grand public en crise

Selon Shuhei Yamada, professeur à l’université J.F. Oberlin de Tokyo, une autre cause du déclin réside dans la perte de compétitivité des géants japonais de l’électronique grand public comme Toshiba et Hitachi.

Engagées dans une guerre des prix avec la Chine, ces entreprises virent leurs ventes chuter ce qui réduisit simultanément la demande interne pour leurs propres semi-conducteurs.

Les divisions électronique et semi-conducteurs, interdépendantes, « se tiraient mutuellement vers le bas ». Faute de capitaux suffisants, les groupes hésitaient à se spécialiser ou à abandonner certaines activités, freinant leur adaptation.

L’industrie des semi-conducteurs est soumise à des cycles violents hauts et bas tous les trois à quatre ans exigeant des investissements massifs et continus.

Même en période de ralentissement, les leaders mondiaux poursuivent leurs investissements pour ne pas perdre de temps technologique.

Les entreprises japonaises, plus prudentes, peinaient à soutenir cette stratégie agressive. Comme l’expliqua Jim Hamajima, président de SEMI Japon et ancien dirigeant de Tokyo Electron, investir massivement dans les puces paraissait risqué comparé à leurs activités traditionnelles.

Pendant ce temps, les acteurs coréens comme Samsung Electronics et SK Hynix adoptaient une stratégie d’investissements massifs, avec des décisions plus rapides et des coûts plus bas.

Des fusions sans leadership

Dans les années 1990, les entreprises japonaises tentèrent de survivre par la consolidation. Mais les fusions échouèrent souvent faute de leadership fort.

Les entités fusionnées continuaient d’agir comme deux entreprises distinctes, ralentissant les décisions stratégiques dans un secteur où la vitesse était devenue cruciale.

À la fin des années 1990, le modèle dominant évolua : on passa d’entreprises verticalement intégrées à des acteurs spécialisés, soit dans la conception, soit dans la fabrication.

Fondée en 1987, TSMC initia le modèle de la fonderie « pure-player », séparant conception et production.

Pour les entreprises japonaises, habituées au modèle intégré concevoir et fabriquer cette séparation paraissait presque hérétique. Pourquoi concevoir un produit que l’on ne fabrique pas soi-même ?

Pendant que la Silicon Valley, avec Intel, et Taïwan redéfinissaient la structure de l’industrie, le Japon continuait d’optimiser le rendement manufacturier.

Résultat : le pays perdit progressivement le marché de la logique, puis celui de la mémoire standardisée.

Le véritable coup fatal : le dilemme de l’innovateur

Le problème central ne fut pas seulement commercial, mais stratégique : le dilemme de l’innovateur.

Les keiretsu japonais étaient des géants intégrés produisant aussi bien des puces que des aspirateurs ou des centrales nucléaires. Lorsque l’avantage compétitif passa de la discipline industrielle à l’architecture et au logiciel, ils restèrent focalisés sur l’excellence matérielle.

Ils perfectionnaient le hardware pendant que l’écosystème mondial réécrivait les règles du jeu.

Pourtant, le Japon ne disparut pas. Il remonta dans la chaîne de valeur.

Plutôt que de mener une guerre perdue sur les puces standardisées, les entreprises japonaises se concentrèrent sur les équipements et matériaux difficiles à standardiser, reposant sur le savoir tacite — le monozukuri.

Aujourd’hui, le Japon détient plus de 50 % du marché mondial des matériaux pour semi-conducteurs. Dans certains segments critiques, comme les résines photosensibles EUV, cette part frôle les 100 %.

On ne peut pas produire une puce avancée chez TSMC sans les matériaux de Shin-Etsu Chemical.
On ne peut pas traiter un wafer sans Tokyo Electron.
On ne peut pas découper un lingot de silicium sans Disco Corporation.

Le Japon n’a donc pas quitté l’industrie : il en contrôle désormais les fondations invisibles.

Par exemple, le Japon détient 88 % de part de marché mondiale pour les coatters/révélateurs (Tokyo Electron, Screen Holdings), 53 % pour les plaquettes en silicium (Shin-Etsu Chemical, Sumco) et 50 % pour les photorésistans (Shin-Etsu, JSR, Tokyo Ohka Kogyo).

En effet, il ne faut pas enterrer les compétences exceptionnelles du Japon en matière d’outils et de matériaux nécessaires aux techniques de fabrication de puces les plus avancées, les fournisseurs japonais figurant souvent parmi les meilleurs au monde dans leurs domaines de spécialisation.

  • Lithographie EUV : le Japon produit une grande partie des équipements qui rendent possible l’utilisation de la lithographie ultraviolette extrême (EUV) pour la fabrication de puces aux nœuds technologiques avancés. Tokyo Electron (TEL), entreprise japonaise, détient la quasi-totalité du marché mondial des systèmes de revêtement/développement en ligne pour l’EUV, la technique de lithographie que Rapidus utilisera pour fabriquer des puces de 2 nm.
  • Empilage de puces : TEL collabore étroitement avec IBM pour permettre la première empilage de puces au monde sur des plaquettes de 300 mm. TEL est fortement implantée au sein du Centre des sciences et de l’ingénierie à l’échelle nanométrique d’Albany (CNSE), à Albany, dans l’État de New York, en y détachant des centaines d’employés.
  • Photomasques : les entreprises japonaises JEOL et NuFlare détiennent 91 % du marché mondial de la fabrication de masques pour la lithographie EUV.
  • Traitement des résines photosensibles : les entreprises japonaises TEL et SCREEN détiennent 96 % du marché mondial des équipements nécessaires au traitement des résines photosensibles.
  • Résines photosensibles haut de gamme : Quatre entreprises japonaises, Shin-Etsu Chemical, Tokyo Ohka Kogyo, JSR et Fujifilm Electronic Materials, représentent 75 % de la production mondiale de résines photosensibles haut de gamme destinées à la fabrication de puces de pointe et détiennent un quasi-monopole sur les résines photosensibles nécessaires à la fabrication de dispositifs par lithographie EUV. Une cinquième entreprise japonaise, Sumitomo Chemicals, est récemment entrée sur le marché de la production de résines photosensibles.
  • Usinage de cristaux sur plaquettes : Les entreprises japonaises Accretech, Okimoto, Toyo et Disco détiennent 95 % du marché mondial des équipements nécessaires à l’usinage de cristaux sur plaquettes. Les entreprises japonaises Rorze, Daifuku et Muratech détiennent quant à elles 88 % du marché mondial des équipements de manipulation de plaquettes.
  • Matériaux semi-conducteurs : Le Japon est le premier producteur mondial de matériaux semi-conducteurs, un statut qu’il occupe depuis des décennies, détenant plus de 50 % des parts de 14 des matériaux les plus critiques nécessaires à la fabrication de puces, notamment les photomasques, la photorésine et les plaquettes de silicium.
  • Conditionnement 3D des puces : Les fournisseurs japonais de matériaux pour semi-conducteurs, dont Nissan Chemical et Showa Denko, investissent massivement dans le développement et la production des matériaux nécessaires au conditionnement 3D des puces. En 2024, Nissan Chemical lancera la production en série d’un adhésif de collage temporaire utilisé dans le conditionnement 3D pour maintenir les plaquettes de silicium sur les substrats de verre pendant le polissage et l’empilement, tout en permettant leur retrait sans dommage.
  • Plaquettes de silicium : les entreprises japonaises de matériaux SUMCO et Shin-Etsu Chemical détiennent à elles deux 60 % du marché mondial des plaquettes de silicium, essentielles à la fabrication des puces.

L’erreur consiste à supposer que parce que le Japon a perdu la guerre B2C des puces, il a perdu les compétences. Ce n’est pas le cas.

La « mémoire musculaire » de l’ingénierie de précision est toujours là, encapsulée dans les entreprises de matériaux, d’équipements et de procédés. Le projet Rapidus vise précisément à libérer cette capacité latente et à la réappliquer à la fabrication de puces logiques avancées.

Pourquoi maintenant ? La tarification du risque systémique

Pourquoi le gouvernement japonais injecte-t-il soudainement des milliers de milliards de yens dans un secteur qu’il semblait avoir délaissé ?

La réponse tient en un mot : le risque.

Pendant quarante ans, la chaîne d’approvisionnement mondiale des semi-conducteurs a été optimisée pour l’efficacité. Le « Juste-à-Temps » était la doctrine dominante. Peu importait le lieu de production, tant que les puces étaient fiables et peu coûteuses.

Cette logique a concentré près de 90 % de la production de puces avancées sur une île que la Chine considère comme une province renégate.

Puis survint la pandémie de COVID-19. Puis les pénuries de puces, qui forcèrent notamment Toyota à interrompre ses chaînes de production. Puis la prise de conscience à Washington comme à Tokyo : si le détroit de Taïwan se ferme, l’économie mondiale s’arrête.

Nous sommes passés du « Juste-à-Temps » au « Juste-au-Cas ».

La théorie du « bouclier de silicium » selon laquelle Taïwan serait trop stratégique pour être attaquée s’est inversée. La concentration extrême des capacités de production est désormais perçue comme un risque systémique.

Bien avant la pandémie, le ministère japonais de l’Économie, du Commerce et de l’Industrie (METI) avait engagé, dès 2019, des discussions pour attirer TSMC au Japon.

Le risque de conflit en Asie de l’Est, ainsi que la possibilité d’instrumentaliser les interdépendances via des contrôles à l’exportation, ont transformé la production nationale de semi-conducteurs en enjeu de sécurité nationale.

De la résilience industrielle à la sécurité économique

Le Japon disposait déjà d’une culture de gestion du risque forgée par les catastrophes naturelles. Après le COVID, les entreprises ont renforcé leurs systèmes de gestion de chaîne d’approvisionnement : multi-approvisionnement, partage accru d’informations avec les fournisseurs, constitution de stocks stratégiques.

Au niveau national, la politique industrielle s’inscrit désormais dans une vision plus large de sécurité économique.

En juin 2021, le METI a annoncé une nouvelle stratégie pour les industries des semi-conducteurs et du numérique. Elle repose sur trois piliers :

  1. Création de bases de production nationales.
  2. Alliances technologiques de nouvelle génération avec les États-Unis.
  3. Développement de technologies d’avenir révolutionnaires.

Les projets internationaux de TSMC offrent un test comparatif éclairant.

  • L’usine de Kumamoto (annoncée en octobre 2021) a atteint la production de masse en décembre 2024 environ 38 mois.
  • L’usine d’Arizona (annoncée en mai 2020) n’a atteint la production initiale qu’au début de 2025 environ 57 mois, soit 50 % plus lent, malgré des subventions plus importantes.

Les difficultés rencontrées aux États-Unis pénuries de main-d’œuvre, frictions culturelles, complexité réglementaire illustrent combien il est difficile de recréer une culture manufacturière avancée.

Les États-Unis conservent des leaders du design comme Nvidia et Apple, mais ont largement externalisé le monozukuri.

Le Japon comme pivot du « friend-shoring »

Le Japon représente un arbitrage stratégique idéal :

  • Alliée politique des États-Unis.
  • Système institutionnel stable.
  • Yen faible rendant les investissements attractifs.
  • Écosystème industriel encore intact.

Dans cette logique de « friend-shoring », Tokyo attire désormais précisément les entreprises étrangères qui avaient supplanté ses propres champions.

Ces dernières années, des subventions publiques substantielles ont convaincu des acteurs majeurs comme TSMC, Micron Technology et Samsung Electronics d’investir au Japon. Pour certains projets notamment celui de Samsung le soutien gouvernemental représente environ 50 % de l’investissement total.

Dans ce contexte, Rapidus incarne l’ambition la plus audacieuse : réintroduire au Japon la fabrication de puces logiques de pointe (2 nm).

Il ne s’agit pas simplement de subventions, mais d’un repositionnement stratégique face à la fragmentation géopolitique.

Le Japon n’essaie pas de recréer le monde des années 1980. Il tente de devenir le nœud redondant indispensable d’une infrastructure informatique occidentale désormais pensée en termes de résilience plutôt que d’efficacité pure.

L’histoire n’est donc pas celle d’un retour nostalgique, mais celle d’une revalorisation stratégique d’un savoir-faire qui n’avait jamais disparu.

Parmi les nouveaux investisseurs étrangers figure le fabricant américain de puces mémoire Micron, qui a annoncé en 2023 investir jusqu’à 3,7 milliards de dollars dans son usine de puces mémoire dynamique à accès aléatoire (DRAM) à Hiroshima au cours des prochaines années, une préfecture occidentale sur l’île principale du Japon.

Samsung de Corée du Sud a annoncé à la fin 2023 qu’elle installerait un centre de recherche et développement à Yokohama, une ville côtière près de Tokyo, estimant y dépenser 280 millions de dollars dans les cinq prochaines années.

DerDernièrement, en février 2026, la décision de TSMC de produire des puces 3 nanomètres dans sa deuxième usine de Kumamoto, sur l’île de Kyushu, a marqué une rupture qualitative dans la stratégie japonaise des semi-conducteurs.

Initialement pensée pour des nœuds intermédiaires (6–12 nm) à destination de l’automobile et des télécommunications, cette implantation bascule désormais dans le champ des technologies avancées, directement mobilisables pour l’intelligence artificielle, la robotique et les systèmes autonomes.

Pourquoi le 3 nm change la donne

La technologie 3 nanomètres est l’ancêtre direct de la technologie 2 nanomètres, dont la commercialisation est actuellement en compétition entre TSMC et Samsung. Des lignes de circuit plus fines permettent de réduire la consommation d’énergie et d’accélérer la vitesse de traitement.

Le passage au 3 nm ne relève pas d’un simple saut incrémental. Il s’agit d’un nœud “leading edge”, exigeant une maîtrise industrielle avancée (EUV, rendements élevés, supply chain ultra-spécialisée) et permettant des gains substantiels en densité de transistors, en performance et en efficacité énergétique.

Bien que TSMC produise déjà des puces encore plus avancées (2 nm) à Taïwan, le 3 nm demeure une technologie clé pour les usages IA à grande échelle.

Cette annonce doit être lue avec prudence sur le plan temporel : la montée en puissance industrielle à Kumamoto prendra plusieurs années, avec des livraisons en volume plutôt attendues vers 2028.

Le Japon ne capte donc pas l’avant-garde immédiate, mais sécurise une capacité avancée future ce qui est précisément l’horizon pertinent en matière de sécurité économique.

Kumamoto comme preuve d’efficacité industrielle

TSMC a achevé la construction de sa première usine dans la préfecture de Kumamoto en 2024, lançant ainsi la production en série de semi-conducteurs 12 nanomètres.

D’après des éléments rapportés par la presse économique asiatique, TSMC estime que ses expansions au Japon ont de meilleures chances d’atteindre le seuil de rentabilité plus tôt que certains investissements comparables aux États-Unis et en Europe, en raison d’un meilleur “fit” opérationnel : efficacité de la chaîne d’approvisionnement, intégration industrielle locale, accès aux talents, satisfaction client.

Et contrairement à d’autres environnements, le Japon dispose d’une main-d’œuvre qui comprend culturellement les exigences de la fabrication de semi-conducteurs.

Rapidus est le pari lunaire du gouvernement japonais. L’objectif est de produire en masse des puces de 2 nanomètres d’ici 2027.

Rapidus se positionnera comme une fonderie de pointe, mais ne cherchera pas à concurrencer frontalement TSMC et Samsung sur le marché des composants grand public. Elle se concentrera plutôt sur des technologies de niche spécialisées, lui permettant de justifier des prix plus élevés.

Son atout principal résidera dans sa capacité à livrer rapidement des dispositifs sur mesure à des utilisateurs finaux spécifiques. Le volume de production initial est estimé à 50 000 plaquettes par mois.

Pour situer le contexte : les puces les plus avancées fabriquées aujourd’hui au Japon sont des puces logiques en 40 nanomètres, une technologie d’environ quinze ans. Rapidus vise donc à sauter près de vingt ans de développement en cinq ans.

La rapidité et la personnalisation sont les caractéristiques clés du système de production poursuivi par Rapidus, notamment pour répondre aux besoins flexibles de domaines innovants comme l’IA.

Le processus de fabrication comprend (1) la conception du circuit, (2) le processus front-end (formation du circuit sur la plaquette), et (3) le procédé back-end (découpe, assemblage, packaging).

Comme ces procédés sont souvent répartis entre plusieurs entreprises, même des puces 3 nm peuvent nécessiter près de deux ans entre développement et production. Rapidus veut internaliser davantage (front-end et back-end) et soutenir la conception en exploitant les données industrielles du front-end, afin d’accélérer drastiquement l’itération « comme la différence entre un train classique et un train à grande vitesse ».

Pour réussir, Rapidus doit créer un cluster complet. Des organisations de R&D et des équipementiers mondiaux se positionnent déjà autour du site, afin de soutenir des domaines clés comme l’EUV et les procédés avancés.

Cela correspond à l’évolution du marché : l’ère de l’IA fragmente la demande, avec un passage des CPU généralistes vers des architectures spécifiques à un domaine (ASIC, NPU). L’avenir appartient souvent à des acteurs qui n’ont pas besoin de centaines de millions d’unités, mais d’itérations rapides et de puces spécialisées.

Le goulot d’étranglement : le talent

Le plus grand obstacle reste le capital humain. Les ingénieurs qui ont bâti la domination des années 1980 partent à la retraite, et la longue “période hivernale” du secteur a raréfié la base de compétences.

Certains analystes soulignent qu’une fab exige des centaines d’ingénieurs expérimentés, mais qu’une partie de ceux qui reviennent aujourd’hui dans l’industrie ont déjà plus de cinquante ans, car beaucoup avaient migré vers d’autres secteurs.

Rapidus tente un arbitrage : recruter des profils seniors (les “derniers avant-gardistes”) capables d’apporter un savoir tacite non écrit, tout en formant une nouvelle génération.

En parallèle, Rapidus envoie des jeunes ingénieurs se former à Albany, dans l’État de New York, dans le cadre d’une coopération avec IBM.

IBM a été à l’origine de travaux sur la technologie 2 nm Gate-All-Around (GAA), considérée comme une évolution majeure de l’architecture transistor (nanosheets) permettant un meilleur contrôle électrique que le FinFET.

La relation est symbiotique : IBM apporte de la propriété intellectuelle et des briques technologiques, le Japon cherche à réinjecter la discipline industrielle pour mettre ces innovations à l’échelle.

Le programme japonais repose aussi sur une collaboration étroite entre industrie, gouvernement et universités.

Rapidus bénéficiera du soutien du LSTC (créé fin 2022 pour coordonner la recherche japonaise sur les semi-conducteurs), appuyé par des organismes publics comme l’AIST, Riken et l’Université de Tokyo.

Les thèmes annoncés s’alignent avec les objectifs de Rapidus :

  • conception de circuits de pointe,
  • transistors GAA,
  • production de masse à délai d’exécution rapide (TAT),
  • packaging 3D,
  • matériaux avancés pour GAA et packaging,
  • formation spécialisée de chercheurs et étudiants.

Pourquoi construire à Chitose, Hokkaidō, plutôt qu’à Kyūshū (près de TSMC) ou dans le cœur industriel d’Aichi ?

Votre texte met en avant quatre facteurs structurants :

  • Eau : les fabs consomment énormément d’eau ultra-pure. Hokkaidō dispose de réserves abondantes et de sources adaptées, offrant une “prime de sécurité” dans un monde plus contraint hydriquement.
  • Électricité : une fab 2 nm exige une énergie de base stable. Hokkaidō combine des options (éolien/solaire, potentiel géothermique, et débat local autour de capacités pilotables).
  • Logistique et talents : proximité de Sapporo et d’un aéroport international facilitant l’aller-retour d’ingénieurs, d’équipementiers et de clients.
  • Sécurité : éloignement relatif des points chauds immédiats en Asie de l’Est, et accent sur la protection des infrastructures critiques (votre texte souligne même la proximité d’une base aérienne, comme signal de sécurisation physique).

Conclusion : une renaissance par la résilience

En définitive, la renaissance japonaise des semi-conducteurs n’est pas une tentative nostalgique de recréer les volumes des années 1980. C’est une évolution stratégique adaptée à la réalité des années 2020 : la résilience remplace l’efficacité comme vertu première.

Le Japon a pivoté de l’assemblage final vers la maîtrise des intrants et des goulots d’étranglement de la chaîne mondiale, puis tente désormais avec Rapidus de “boucler la boucle” en revenant sur la fabrication avancée.

Le succès de Rapidus se mesurera commercialement, mais sa logique profonde est aussi géopolitique : réduire les risques, recréer une capacité souveraine, et repositionner le pays sur la prochaine vague d’innovation (IA, calcul haute performance, systèmes autonomes), tout en assumant une trajectoire risquée, coûteuse, et encore incertaine.

Le récit selon lequel le Japon a “perdu la guerre des semi-conducteurs” était prématuré : il jouait un jeu plus long, plus discret et le monde recommence à valoriser exactement ce qu’il offre.

Sources :

TSMC va produire des puces 3 nm au Japon (Kumamoto)

Rapidus et l’objectif des puces 2 nm

Analyse externe sur Rapidus

Informations générales sur l’industrie japonaise des semi-conducteurs

Catégories
Economie En vedette Géopolitique

La Chine, le nouveau modèle économique pour l’Occident ?

La Chine n’a pas simplement gravi les échelons de l’industrie mondiale. Elle a changé d’échelle, puis changé les règles. En 2004, elle ne représentait encore que moins de 9 % de la production manufacturière mondiale.

Vingt ans plus tard, elle en concentre près de 29 %, soit davantage que les États-Unis, le Japon, l’Allemagne et l’Inde réunis.

Mais cette domination ne se limite pas aux volumes. Elle s’exprime dans le commerce mondial, dans la structuration des chaînes de valeur, et désormais dans les rapports de force géopolitiques. En Amérique latine, les principales économies du continent importent aujourd’hui davantage de biens chinois que de biens américains, illustrant un déplacement silencieux du centre de gravité économique mondial.

La clé de cette ascension ne réside pas seulement dans une main-d’œuvre abondante ou des coûts bas. Elle repose sur la maîtrise systémique des intrants critiques, des capacités de transformation et de la montée en gamme technologique. Terres rares, batteries, panneaux solaires, équipements électriques, composants industriels, semi-conducteurs matures : Pékin contrôle les segments où se crée la dépendance stratégique.

Plus de 70 % des terres rares importées par les États-Unis proviennent de Chine. Un avion F-35 ou un sous-marin nucléaire de classe Virginia mobilise des matériaux raffinés quasi exclusivement en Chine. La supériorité militaire américaine repose ainsi, en partie, sur des chaînes de valeur chinoises.

La souveraineté par la production : la leçon stratégique

La souveraineté technologique et géopolitique repose moins sur la finance ou les brevets que sur la capacité à produire, raffiner et déployer à grande échelle. Depuis quarante ans, la Chine a méthodiquement investi ce terrain, devenant successivement l’atelier, l’ingénieur, puis l’architecte du système industriel mondial.

Le revenu par habitant est passé de quelques centaines de dollars à la fin des années 1970 à plus de 13 000 dollars aujourd’hui. Mais le secteur de l’énergie révèle encore mieux l’ampleur du basculement. La Chine représente plus de la moitié des installations solaires mondiales et domine également l’éolien. Environ les trois quarts des projets d’énergie renouvelable en cours dans le monde sont en Chine ou menés par des entreprises chinoises.

Si la Chine génère près de 30 % des émissions mondiales, elle concentre également une part majeure de la croissance des technologies de décarbonation. Elle a démontré que le déploiement massif pouvait rendre les énergies renouvelables compétitives à l’échelle mondiale.

L’innovation comme doctrine nationale

Le 4e plénum récent a acté un durcissement stratégique autour de l’innovation technologique, désormais pilier central du modèle de développement. Pékin vise l’autonomie dans les semi-conducteurs, l’intelligence artificielle, le numérique et les biotechnologies.

L’innovation n’est plus pensée comme un simple effort scientifique, mais comme un système intégré reliant recherche fondamentale, industrialisation et marché intérieur. Cette orientation structurera le 15e plan quinquennal (2026-2030), faisant de la maîtrise technologique un levier de résilience et de souveraineté.

Le système chinois combine confucianisme, léninisme, autoritarisme technocratique, capitalisme d’État et mécanismes de marché. Il s’agit d’un modèle hybride visant l’efficacité stratégique plus que la pure orthodoxie idéologique.

La vision financière de Xi Jinping : morale et puissance

Xi Jinping a récemment appelé à ce que le yuan acquière le statut de monnaie de réserve mondiale. Sa vision d’un « système financier moderne aux caractéristiques chinoises » repose non seulement sur des structures institutionnelles, mais aussi sur une culture morale.

Selon lui, règles et institutions ne suffisent pas : la stabilité exige une éthique intériorisée. S’inspirant d’un débat ancien entre légalistes et confucéens, il affirme que les règles seules produisent des experts en contournement ; seule la vertu garantit la durabilité.

Les cinq principes qu’il énonce honnêteté, droiture, prudence, innovation ancrée dans l’économie réelle et respect strict de la loi visent à éviter les excès observés en Occident comme en Chine (banque parallèle, spéculation immobilière, corruption). Il reconnaît d’ailleurs que le système chinois est « grand mais pas fort », ce qui fait de ce discours une correction plutôt qu’un triomphe.

Le paradoxe américain : vers une hybridation des modèles

Alors que Washington critique le capitalisme d’État chinois, les États-Unis adoptent progressivement des outils similaires : droits de douane, subventions ciblées, politique industrielle assumée, sécurisation des chaînes d’approvisionnement.

Sous Biden puis lors du second mandat de Trump, la coordination État-industrie s’est intensifiée. Le projet « Vault », visant à constituer des réserves stratégiques de minerais critiques (lithium, cobalt, nickel, terres rares), illustre cette mutation. Les États-Unis élargissent désormais la logique de stock stratégique au-delà du pétrole.

La rivalité sino-américaine ne mène pas à la victoire d’un modèle sur l’autre, mais à une hybridation. En cherchant à contenir la Chine, Washington adopte certaines de ses méthodes.

Le défi psychologique et civilisationnel

La Chine remet en cause l’idée selon laquelle modernité, innovation et prospérité durable seraient intrinsèquement liées au capitalisme libéral-démocratique. Ses succès industriels et technologiques sont souvent réduits à l’intervention de l’État, minimisant ses capacités substantielles.

Cette remise en question intervient alors que de nombreuses démocraties occidentales traversent des crises internes. La légitimité politique doit-elle reposer uniquement sur la procédure démocratique, ou inclure performance, efficacité et résilience ?

La Chine a démontré sa capacité à innover sous pression, à absorber la coercition économique et à mobiliser massivement des ressources pour la transition énergétique.

Un monde post-occidental ?

Des signes de reconnaissance émergent aux États-Unis. Certains intellectuels et entrepreneurs admettent la nécessité d’un État plus capable de construire et d’orienter. Les jeunes générations se montrent moins anxieuses face à l’ascension chinoise que leurs aînés.

Dans le Sud global, la trajectoire chinoise élargit les horizons : développement dirigé par l’État, planification à long terme, infrastructures massives, intégration sélective aux marchés mondiaux.

Le monde n’est plus structuré autour d’un seul récit de modernité. Plusieurs voies vers la prospérité coexistent désormais.

Conclusion : adaptation ou déni

Faire face à cette réalité ne signifie pas abandonner ses valeurs, mais reconnaître que la modernité n’est plus exclusivement occidentale. Le choix pour l’Occident n’est pas entre résistance et capitulation, mais entre adaptation lucide et déni obstiné.

Sources :

Mesurer la puissance manufacturière chinoise | Projet ChinaPower

Graphique : Les États-Unis dépendent fortement des importations de terres rares en provenance de Chine | Statista

China’s renewables reach new heights, as offshore wind takes off – Global Energy Monitor

Crédits et déductions en vertu de la loi sur la réduction de l’inflation de 2022 | Service des impôts