OpenAI annonce un troisième contrat pour déployer des millions de puces dédiées à l’IA, avec Broadcom cette fois-ci, pour un total de 10 GW de puissance électrique. Le géant de l’intelligence artificielle grimpe donc à 26 GW et revient à la charge sur son obsession : l’IA générale.
Au cours des derniers jours, OpenAI a annoncé deux gros contrats avec les deux géants des GPU. Le premier avec NVIDIA qui prévoit d’investir jusqu’à 100 milliards de dollars dans OpenAI, en échange du déploiement de 10 GW de GPU du Caméléon.
Rebelote avec AMD quelques jours plus tard avec 6 GW de GPU à déployer. Le volet financier est différent : OpenAI va aussi pouvoir acheter jusqu’à 160 millions d’actions AMD (environ 10 % du capital), pour un montant non précisé.
OpenAI et Broadcom vont co-développer des accélérateurs IA
Aujourd’hui, OpenAI annonce un troisième partenariat, avec Broadcom cette fois. Le but est de « co-développer des systèmes incluant des accélérateurs et des solutions Ethernet de Broadcom pour la mise à l’échelle et la montée en charge ».
Dans le cadre de cet accord, « Broadcom va déployer des racks d’accélérateurs d’IA et de systèmes réseau, dont le démarrage est prévu au second semestre 2026 et l’achèvement d’ici fin 2029 ». Tout devrait donc être en place en trois ans seulement. Le début des hostilités avec NVIDIA et AMD est aussi prévu pour la seconde moitié de 2026, mais rien n’est précisé sur la fin des travaux.

OpenAI récidive et parle de nouveau de « 10 gigawatts d’accélérateurs d’IA personnalisés », ce qui ne veut rien dire sur la puissance de calcul, surtout qu’on ne connait pas l’ombre d’une caractéristique technique des puces. Avec cette annonce, OpenAI pourrait aussi bien développer des radiateurs électriques avec un NPU pour réguler la température, que des puces capables de rivaliser avec les dernières générations de NVIDIA (la réalité sera évidemment entre les deux).
Dans le cadre de ce partenariat, « OpenAI concevra les accélérateurs et les systèmes », qui seront ensuite développés et déployés par Broadcom, aussi bien dans des datacenters d’OpenAI que de partenaires. Le père de ChatGPT affirme que ces connaissances sur le développement des modèles d’IA seront mises à profit pour le développement.
De nouvelles puces principalement pour l’inférence
Pour simplifier, OpenAI sait parfaitement ce qu’il lui faut (l’entreprise connait sur le bout des doigts les besoins pour l’entrainement et l’inférence) et va donc concevoir ses puces pour y répondre au mieux. Il faudra voir comment vont s’articuler les différents accords avec AMD, NVIDIA et maintenant Broadcom. OpenAI ne précise pas les usages ciblés par les différentes puces.
Les puces développées avec Broadcom serviront probablement pour de l’inférence, c’est-à-dire répondre aux demandes des utilisateurs. Avant cela, il faut passer par la phase d’apprentissage, qui exploite de colossaux jeux de données (typiquement, tout ce qui est disponible sur Internet) pour entrainer l’intelligence artificielle. C’est d’ailleurs confirmé par Sam Altman lors d’une table ronde accompagnant la mise en ligne du communiqué, comme le rapporte LaPresse.ca.
26 GW : 3 % de la production étasunienne, 42 % en France
10 GW, puis 16 GW et maintenant 26 GW, l’appétit énergétique d’OpenAI ne semble pas avoir de limite. Lors de la table ronde, Sam Altman a précisé que les systèmes actuellement installés ont une capacité d’« un peu plus de deux GW » ; la consommation va donc être multipliée par 13 au cours des prochaines années.
« Beaucoup s’interrogent, par ailleurs, sur la capacité du réseau électrique américain à absorber ces considérables besoins supplémentaires, alors que l’offre est déjà contrainte », expliquent nos confrères. Ils rappellent que, selon le département de l’Énergie, la capacité des États-Unis était d’environ 1 200 GW en 2023 : « Les nouveaux besoins d’OpenAI représentent plusieurs points de pourcentage de l’ensemble de la puissance électrique du pays tout entier ». Ramené à la France, cela correspondrait à 42 % de la puissance installée (61,4 GW pour rappel).
La super intelligence artificielle générale en ligne de mire (sauf avec AMD)
Dans son communiqué, OpenAI affirme que cette collaboration permettra à OpenAI de se rapprocher de son Graal : proposer une « intelligence artificielle générale à toute l’humanité ». On retrouvait exactement les mêmes éléments de langage dans la première annonce avec NVIDIA, où OpenAI parlait aussi de superintelligence.
Par contre, dans le partenariat avec AMD, pas de superintelligence ni d’IA générale ; le partenariat devait « uniquement » permettre de « répondre aux demandes croissantes en matière d’IA dans le monde ».
800 millions d’utilisateurs… « dans une bulle » ?
De 700 millions d’utilisateurs actifs chaque semaine à la date du 22 septembre, OpenAI en revendique désormais « plus de 800 millions ». L’entreprise annonce aussi une « forte adoption parmi les grandes et petites entreprises ainsi que les développeurs ».
Suite à cette annonce, le cours de la bourse de Broadcom a grimpé de 10 %. Depuis l’annonce du partenariat avec AMD, l’action du Texan a pris plus de 30 %. Avec des investissements circulaires et OpenAI au centre, la notion de bulle revient plus que jamais sur le devant de la scène. Une bulle ? « Quelle bulle », s’est demandé Bloomberg.
#OpenAI, #Nvidia fuel $1tn AI market w/web of circular deals. A wave of deals and partnerships are escalating concerns that the trillion-dollar AI boom is being propped up by interconnected business transactions.https://t.co/abiPWR0eZs pic.twitter.com/oIMBVbO1rU
— Holger Zschaepitz (@Schuldensuehner) October 8, 2025
