Nvida publiera ses résultats dans un contexte de dépenses d'infrastructure et d'inquiétudes concernant DeepSeek

Nvidia devrait publier ses résultats financiers du quatrième trimestre mercredi après la cloche.
L'entreprise devrait ainsi mettre un point final à l'une des années les plus remarquables de son histoire. Les analystes interrogés par FactSet tablent sur un chiffre d'affaires de 38 milliards de dollars pour le trimestre clos en janvier, ce qui représenterait une augmentation de 72 % sur une base annuelle.
Le trimestre de janvier clôturera le deuxième exercice fiscal au cours duquel les ventes de Nvidia ont plus que doublé. Il s'agit d'une séquence époustouflante, motivée par le fait que les unités de traitement graphique (GPU) des centres de données de Nvidia sont des équipements essentiels pour la création et le déploiement de services d'intelligence artificielle comme ChatGPT d'OpenAI. Au cours des deux dernières années, l'action Nvidia a augmenté de 478 %, ce qui en fait parfois l'entreprise américaine la plus valorisée avec une capitalisation boursière supérieure à 3 000 milliards de dollars.
Mais l'action de Nvidia a ralenti ces derniers mois, les investisseurs se demandant où l'entreprise de puces peut aller à partir de maintenant.
Le prix de l'action Nvidia est le même qu'en octobre dernier, et les investisseurs se méfient de tout signe indiquant que les principaux clients de Nvidia pourraient se serrer la ceinture après des années de dépenses d'investissement importantes. Cela est particulièrement inquiétant à la suite des récentes percées de l'IA en Chine.
Une grande partie des ventes de Nvidia est destinée à une poignée d'entreprises qui construisent d'énormes fermes de serveurs, généralement pour les louer à d'autres entreprises. Ces sociétés de cloud computing sont généralement appelées « hyperscalers ». En février dernier, Nvidia a déclaré qu'un seul client représentait 19 % de son chiffre d'affaires total pour l'exercice 2024.
Les analystes de Morgan Stanley ont estimé ce mois-ci que Microsoft représentera près de 35 % des dépenses en 2025 sur Blackwell, la dernière puce IA de Nvidia . est à 32,2%, Oracle à 7,4% et Amazon à 6,2 %.
C'est pourquoi tout signe indiquant que Microsoft ou ses rivaux pourraient réduire leurs projets de dépenses peut ébranler l'action Nvidia.
La semaine dernière, les analystes de TD Cowen ont déclaré avoir appris que Microsoft avait annulé des baux avec des opérateurs de centres de données privés, ralenti son processus de négociation pour conclure de nouveaux baux et ajusté ses plans de dépenses pour les centres de données internationaux en faveur des installations américaines.
Le rapport a suscité des craintes quant à la durabilité de la croissance des infrastructures d'IA. Cela pourrait signifier une baisse de la demande pour les puces de Nvidia. Michael Elias, de TD Cowen, a déclaré que les conclusions de son équipe indiquaient « une situation d'offre excédentaire potentielle » pour Microsoft. Les actions de Nvidia ont chuté de 4 % vendredi.
Microsoft a réagi lundi, affirmant qu'il prévoyait toujours de dépenser 80 milliards de dollars en infrastructures en 2025.
« Bien que nous puissions adapter stratégiquement notre infrastructure dans certains domaines, nous continuerons à croître fortement dans toutes les régions. Cela nous permet d'investir et d'allouer des ressources aux domaines de croissance pour notre avenir », a déclaré un porte-parole à CNBC.
Au cours du mois dernier , la plupart des principaux clients de Nvidia ont annoncé des investissements importants. Alphabet vise 75 milliards de dollars de dépenses d'investissement cette année, selon Meta dépensera jusqu'à 65 milliards de dollars et Amazon vise à dépenser 100 milliards de dollars .
Selon les analystes, environ la moitié des dépenses d'investissement en infrastructures d'IA sont confiées à Nvidia. De nombreux hyperscalers s'intéressent aux GPU d'AMD et développent leurs propres puces d'IA pour réduire leur dépendance à Nvidia, mais l'entreprise détient la majorité du marché des puces d'IA de pointe.
Jusqu'à présent, ces puces ont été principalement utilisées pour former des modèles d'IA de pointe, un processus qui peut coûter des centaines de millions de dollars. Une fois l'IA développée par des entreprises comme OpenAI, Google et Anthropic, des entrepôts remplis de GPU Nvidia sont nécessaires pour fournir ces modèles aux clients. C'est pourquoi Nvidia prévoit que ses revenus continueront de croître.
Un autre défi pour Nvidia est l'émergence le mois dernier de la start-up chinoise DeepSeek, qui a lancé un modèle d'IA efficace et « distillé ». Ses performances étaient suffisamment élevées pour suggérer que des milliards de dollars de GPU Nvidia ne sont pas nécessaires pour entraîner et utiliser une IA de pointe. Cela a temporairement fait couler l'action de Nvidia, faisant perdre à l'entreprise près de 600 milliards de dollars de capitalisation boursière.
Le PDG de Nvidia, Jensen Huang, aura l'occasion mercredi d'expliquer pourquoi l'IA continuera à avoir besoin de davantage de capacité GPU, même après le développement massif de l'année dernière.
Récemment, Huang a parlé de la « loi d'échelle », une observation d'OpenAI en 2020 selon laquelle les modèles d'IA s'améliorent à mesure que davantage de données et de calculs sont utilisés lors de leur création.
Huang a déclaré que le modèle R1 de DeepSeek met en évidence une nouvelle faille dans la loi de mise à l'échelle que Nvidia appelle « Test Time Scaling ». Huang a soutenu que la prochaine voie majeure vers l'amélioration de l'IA consiste à appliquer davantage de GPU au processus de déploiement de l'IA, ou d'inférence. Cela permet aux chatbots de « raisonner » ou de générer beaucoup de données dans le cadre de la réflexion sur un problème.
Les modèles d'IA ne sont formés que quelques fois pour être créés et peaufinés. Mais les modèles d'IA peuvent être appelés des millions de fois par mois, donc l'utilisation de plus de calculs lors de l'inférence nécessitera le déploiement de plus de puces Nvidia auprès des clients.
« Le marché a répondu à R1 en disant : « Oh mon Dieu, l'IA est finie », que l'IA n'a plus besoin de faire de calculs », a déclaré Huang dans une interview préenregistrée la semaine dernière . « C'est exactement le contraire. »
CNBC