Sundar Pichai chez Stripe : 175 milliards de CapEx en 2026, et un mur en mémoire HBM

Sundar Pichai détaille à Stripe le ramp CapEx de Google : de 30 à 180 Md$ en cinq ans. Ses bottlenecks : wafers, mémoire, électriciens.

Sundar Pichai chez Stripe : 175 milliards de CapEx en 2026, et un mur en mémoire HBM

Sundar Pichai, CEO Google

Pour ses dix ans à la tête de Google, Sundar Pichai a accepté une longue interview chez Stripe Sessions. L'angle business est tout sauf hype : Alphabet va dépenser entre 175 et 185 Md$ de CapEx en 2026, soit « environ six fois ce qu'on dépensait en 2021 ». Pichai n'esquive pas la question qui tue : « Pourquoi vous, et pas un concurrent ? »

La vidéo

L'analyse Skeyli

1. CapEx de 30 à 180 Md$ en cinq ans : le vrai mur est physique

Sa phrase la plus dure du podcast : « Google ne peut pas dépenser 400 milliards en CapEx même si on le voulait. La mémoire n'existe pas, l'électricité n'existe pas, les électriciens n'existent pas. » Le ramp est vertigineux (30 Md$ en 2021 → 75 Md$ en 2024 → 175-185 Md$ en 2026), mais le plafond est ailleurs : il est physique. Pour les opérateurs IA, ça veut dire que la course au scale n'est pas une question de capital — c'est une question d'accès aux ressources rares.

2. Le vrai bottleneck en 2026, c'est la mémoire HBM

Le bottleneck #1 selon Pichai est la mémoire HBM. Pas les GPU, pas les TPU — la mémoire haute bande passante. Aucun fournisseur (Micron, SK Hynix, Samsung) ne peut « dramatically improve their capacity » à court terme. La conséquence directe : les prix unitaires HBM seront stables-haut au moins jusqu'à fin 2027, comprimant les marges des plus petits acteurs cloud. Combiné aux wafer starts plafonnés chez TSMC, l'arrivée d'un sixième hyperscaler avant 2028 est exclue.

3. Google paie 50 % de crédit OpenAI : l'arsenal dealer gagne

La grosse révélation de l'interview : Google a payé 50 % de crédit chez OpenAI pour adapter sa fonctionnalité de production d'images dans le mode « ChatGPT Atlas ». Pichai a glissé ça en passant, mais c'est énorme : Google fait du B2B pour ChatGPT, malgré la concurrence frontale sur la search. Stratégie d'arsenal dealer : tout le monde paie le même fournisseur d'infrastructure. Sur Anthropic, même message : « Anthropic est notre client le plus exigeant sur les TPU. » Google Cloud monétise l'IA de ses propres concurrents.

4. Le permitting comme bottleneck #3 : construire « 10× plus vite »

Le bottleneck qui surprend, c'est le permitting. « Vous avez beaucoup de terrain au Texas, au Nevada, au Montana, mais pas assez de gens pour construire vite. On doit apprendre à construire 10× plus vite, comme la Chine. » Pichai propose explicitement de calquer la mentalité chinoise sur les délais d'exécution physique. Pour les fondateurs qui pensent que l'IA est un problème de modèle, le rappel est brutal : en 2026, le delta compétitif se joue sur la vitesse à coucher du béton.

5. Q1 2027 : l'inflection point pour l'agentique mainstream

À la question « quand l'agentique passe au-delà des early adopters ? », sa réponse : « Q1 2027 est l'inflection point que je surveille. » Pas avant. C'est un délai significatif quand votre CapEx 2026 est bâti sur une thèse de monétisation 2027. Pichai assume aussi l'option « data centers in space » : une équipe restreinte explore des datacenters spatiaux. Pas de timeline publique — mais c'est la confirmation que le bottleneck énergétique terrestre pousse les hyperscalers vers des architectures que personne n'aurait pricé il y a 18 mois.

Ce qu'il faut retenir pour les entrepreneurs

  • Le calendrier d'adoption IA grand public n'est pas avant Q1 2027. Toute roadmap qui parie sur l'agentique mainstream avant cette date est risquée.
  • Le coût d'inférence va rester sous tension via la HBM : les marges des SaaS qui revendent des tokens IA seront comprimées au moins jusqu'à fin 2027.
  • L'arsenal dealer Google Cloud (qui sert OpenAI et Anthropic) confirme que l'infrastructure prime sur le modèle. Pour un fondateur, mieux vaut bâtir sur Azure/GCP/AWS que parier sur un seul frontier.
  • Le vrai delta compétitif des hyperscalers en 2026, c'est l'accès à l'énergie et la vitesse de permitting. C'est aussi un indicateur géopolitique pour choisir une région de déploiement.

L'essentiel

Pichai vend une thèse contre-intuitive : l'IA est un problème de wafer starts, de mémoire HBM et d'électriciens, pas de modèle. Quand votre CapEx est de 180 Md$ par an, votre vrai concurrent n'est pas OpenAI. C'est TSMC qui dit non, Micron qui dit non, le réseau électrique américain qui dit non. C'est aussi le premier dirigeant qui assume que l'AGI est moins urgente que le permitting.

À surveiller

  • Q1 2026 earnings Alphabet : la fourchette 175-185 Md$ est-elle vraiment plafonnée ?
  • HBM capacity : Micron et SK Hynix annonceront leur ramp 2027 d'ici l'été. Toute déception → pricing power renforcé.
  • TPU vs Nvidia : Anthropic Claude 5 (annoncé pour fin 2026) tournera majoritairement sur quel hardware ? Le mix sera publié.
  • Permitting US : si la Chine continue à 10× le tempo, Pichai a clairement dit que l'écart deviendra structurel.
  • Wing delivery 40M Américains : si Google atteint cette cible avant Amazon Prime Air, c'est un signal majeur sur l'exécution physique.