La plupart de ces sociétés sont aujourd’hui faiblement endettées et émettent des obligations pour financer leurs dépenses d’investissement (capex) dans l’IA, une démarche qui contribue à optimiser la structure de leur capital. « En réalité, elles disposent de réserves et de flux de trésorerie en quantité suffisante pour autofinancer ces projets, et ce, même si elles augmentent leurs capex, ce qui réduit considérablement les risques systémiques », ajoute Damien McCann.
La situation des sociétés technologiques d’aujourd’hui est donc très différente de celle de leurs prédécesseurs de l’ère d’Internet. Comme le précise Damien McCann, « à la fin des années 1990, la plupart des sociétés avaient des cash-flows limités, voire négatifs. Elles misaient essentiellement sur les émissions d’actions et sur le capital-risque, lequel est par nature spéculatif. Des sociétés se sont ainsi lourdement endettées, comme WorldCom pour développer son réseau de fibre optique, ou ont accumulé une dette colossale malgré une demande encore théorique, à l’instar de Pets.com. »
Autre différence majeure entre les années 1990 et aujourd’hui : ce sont les maisons mères qui ont émis des obligations investment grade ces derniers mois. Or, cette approche comporte plusieurs avantages, à commencer par le fait que la valeur des émissions est liée aux cash-flows générés collectivement et qu’elle représente celle d’un groupe de sociétés, et non d’une entité individuelle. Alphabet, par exemple, est à la tête de nombreuses filiales, dont Google, YouTube, Waymo ou encore DeepMind. « Cette différence est importante, parce que les prêts sont accordés à un groupe diversifié, et non à une structure qui existe uniquement pour financer des investissements dans l’IA. »
Malgré tout, les investisseurs exigent une prime pour ces titres, prime qui reflète la vaste quantité d’obligations émises, le fait que les émetteurs présentent un niveau d’endettement légèrement supérieur à celui d’autres sociétés de solvabilité équivalente, ainsi que l’incertitude quant à la viabilité de la demande de services liés à l’IA.
3. Financements innovants
La manière dont les acteurs de l’IA financent leur développement est un autre sujet de préoccupation pour les investisseurs. Prenons le cas du « vendor financing » : les flux financiers circulent entre les mêmes entreprises – start-up et hyperscalers –, qui s’achètent des solutions et du matériel entre elles et s’entraident pour dynamiser leur chiffre d’affaires. Pour preuve, Amazon et Google ont investi chacun des milliards de dollars dans la start-up d’IA Anthropic qui, à son tour, utilise Amazon Web Services et les services et produits Google.
Cette circularité existait déjà dans les années 1990, avec Lucent Technologies qui prêtait de vastes sommes à des start-up en difficultés financières pour qu’elles puissent acheter ses équipements. Celles-ci se sont finalement avérées incapables de payer, générant ainsi d’importantes pertes pour Lucent.
Mais un tel scénario paraît aujourd’hui impensable à court terme, selon Damien McCann : « À la différence de Lucent, les sociétés de l’IA se prêtent une proportion très faible de leurs cash-flows. Leur assise financière solide leur confère la souplesse nécessaire pour financer autrement leurs ambitions de croissance, par exemple au moyen de montages hors bilan ou d’opérations de financements structurés. »
Meta, par exemple, s’est associé à Blue Owl Capital pour créer la coentreprise Beignet Investor et ainsi financer la construction d’un mégacentre de données baptisé Hyperion en Louisiane. Microsoft a pour sa part conclu des contrats à court terme avec des fournisseurs de centres de données appelés « néoclouds », un montage considéré plutôt comme des charges d’exploitation (opex) que comme des dépenses d’investissement (capex) à long terme.
Étant donné que l’écosystème de l’IA reste encore en grande partie à construire, ces opérations innovantes pourraient se multiplier en 2026, en particulier en ayant recours à la dette non cotée. « Certaines de ces opérations pourraient constituer des opportunités attrayantes, mais les prêteurs potentiels devront se montrer très vigilants, de tels dispositifs étant généralement structurés de manière à limiter les risques financiers pour la maison mère », fait remarquer Damien McCann.
« Pour ma part, même si je suis convaincu du pouvoir transformateur de l’IA, ce type de montage ne figure pas dans mes priorités pour l’instant. J’investirai au cas par cas, en tenant compte notamment de l’apport financier des hyperscalers. »
4. Risque de surcapacités
D’aucuns diront que l’offre crée la demande. Au début des années 2000, les opérateurs de télécommunications ont injecté des milliards de dollars pour développer le réseau de fibre optique, estimant que la demande de transmission de données Internet était illimitée. Résultat : le secteur s’est retrouvé en surcapacités, lesquelles ont engendré d’importantes pertes pour les entreprises du secteur et leurs investisseurs.
Jared Franz, économiste spécialiste du marché américain chez Capital Group, rappelle que « le surinvestissement fait partie intégrante du processus en matière d’avancées technologiques, et que ce n’est en aucun cas une anomalie ». Et qu’au bout du compte, les entreprises qui survivront à la course à l’IA finiront par investir avec plus de discernement.
Aujourd’hui, les hyperscalers semblent convaincus qu’il est essentiel de bâtir davantage de centres de données pour développer à la fois la capacité d’entraînement et d’inférence des modèles d’IA générative, afin qu’ils puissent être utilisés quotidiennement par le plus grand nombre d’utilisateurs possible. « Cela implique de construire l’infrastructure physique, c’est-à-dire les bâtiments, le réseau électrique, le système de refroidissement, etc., puis d’y installer les processeurs graphiques et équipements réseau et stockage nécessaires pour faire fonctionner la nouvelle génération de grands modèles de langage. »
En outre, les investisseurs sont attentifs aux performances des nouveaux modèles d’IA et à leurs mises à jour. Des améliorations qui commencent à stagner pourraient être le signal que la demande d’IA est plus lente que les investissements. Jared Franz estime toutefois que si les lois d’échelle ne se maintiennent pas, les capacités qui seront construites ces deux prochaines années pourront être réutilisées à d’autres fins, car même si la demande d’IA ralentit, il y aura toujours une demande de puissance de calcul.
5. Contraintes liées aux ressources
La disponibilité de l’électricité est essentielle pour permettre l’essor du secteur de l’IA, selon Julian James, analyste d’investissement obligataire chez Capital Group, en raison des besoins considérables des centres de données en matière de mémoire, d’énergie, de microprocesseurs, de cuivre et d’eau. Or, des ressources électriques insuffisantes peuvent freiner le développement des infrastructures, ralentir les dépenses d’investissement des hyperscalers et allonger les délais de mise en service.
Julian James, qui a échangé avec plusieurs dirigeants du secteur des services aux collectivités fin 2025, constate que « les principaux freins à l’essor de l’IA sont la disponibilité de l’électricité et l’allongement des délais de raccordement des centres de données au réseau électrique. En l’occurrence, le principal obstacle est la pénurie de travailleurs qualifiés pour la construction de centrales électriques et le raccordement des nouveaux centres de données au réseau électrique. »