Cerebras Systems est une start-up spécialisée dans les puces d’IA qui développe des systèmes IA dédiés afin d’accélérer la génération de longues sorties par les modèles d’IA. Elle attribue la rapidité de ses produits à l’association d’une puissance de calcul, d’une mémoire et d’une bande passante massives sur une seule puce géante, éliminant ainsi les goulets d’étranglement qui ralentissent l’inférence sur le matériel conventionnel.
C’est précisément ce sur quoi OpenAI compte capitaliser.
OpenAI signe un accord avec un fournisseur de cloud computing soutenu par Altman
Selon une déclaration officielle d’OpenAI, l’intégration de Cerebras dans son portefeuille de solutions de calcul vise à rendre ses produits d’IA plus réactifs. Cela signifie que lorsque les utilisateurs posent une question complexe, génèrent du code, créent une image ou lancent un agent IA, le processus de réflexion devient plus rapide, permettant ainsi à l’IA de répondre en temps réel, donnant la possibilité aux utilisateurs d’en faire plus, de rester connectés plus longtemps et d’exécuter des tâches à plus forte valeur ajoutée.
Selon cette déclaration, OpenAI prévoit d’intégrer cette capacité à faible latence à sa pile d’inférence par phases, en l’étendant à différents types de charges de travail.
Sachin Katti d’OpenAI s’est exprimé au sujet de ce développement :
« Cerebras ajoute une solution d’inférence dédiée à faible latence à notre plateforme. Cela signifie des réponses plus rapides, des interactions plus naturelles, et une base plus solide pour faire évoluer l’IA en temps réel pour de nombreuses personnes supplémentaires. »
Selon elle, cela s’aligne sur la stratégie de calcul d’OpenAI, qui consiste à construire un portefeuille résilient en associant les bons systèmes aux bonnes charges de travail.
S’exprimant sur ce partenariat, Andrew Feldman, cofondateur et PDG de Cerebras, s’est dit ravi de l’opportunité de collaborer avec OpenAI, car cela signifie associer les modèles d’IA les plus avancés du monde au processeur d’IA le plus rapide au monde.
« Tout comme le haut débit a transformé Internet, l’inférence en temps réel transformera l’IA, permettant de nouvelles manières de construire et d’interagir avec les modèles d’IA », a déclaré Feldman.
Cette capacité devrait être mise en service en plusieurs tranches jusqu'en 2028. Ce développement intervient alors qu’OpenAI continue de faire face à une demande explosive et à une grave pénurie de ressources de calcul.
L’entreprise cherche à réduire sa forte dépendance à Nvidia et à de grands fournisseurs de cloud comme Microsoft et Oracle, même si cette démarche suscite des interrogations, notamment en raison du fait que Sam Altman est répertorié comme investisseur de Cerebras Systems.
OpenAI annonce un partenariat avec SoftBank
OpenAI a annoncé un partenariat stratégique avec SB Energy, une entreprise du groupe SoftBank, dans le cadre du projet Stargate. Ce partenariat est présenté comme une avancée significative pour le développement des infrastructures de prochaine génération en intelligence artificielle (IA) et en énergie aux États-Unis.
Pour soutenir ce partenariat face à la demande croissante en calculs IA, OpenAI et SoftBank Group se sont chacun engagés à investir 500 millions de dollars, qui seront injectés dans SB Energy.
OpenAI a également choisi SBE pour construire et exploiter le site de centre de données de 1,2 GW précédemment annoncé dans le comté de Milam. Le financement en fonds propres soutiendra la croissance de SB Energy alors qu’elle se concentre sur le développement de plusieurs campus de centres de données multi-gigawatts devant entrer en service cette année.
Les communautés s’opposent aux centres de données
Selon la déclaration officielle, chaque projet verra SB Energy et OpenAI investir dans les communautés en offrant des emplois bien rémunérés, en développant la main-d’œuvre et en modernisant le réseau électrique, favorisant ainsi une croissance économique durable pour les communautés partenaires.
Le centre de données du comté de Milam devrait créer des milliers d’emplois dans la construction et a été conçu pour minimiser la consommation d’eau. Des plans sont également en place pour répondre aux besoins énergétiques du centre de données tout en protégeant les consommateurs texans.
Toutes ces initiatives montrent qu’OpenAI est consciente du mécontentement croissant des citoyens vivant à proximité des centres de données. L’année 2025 a vu une augmentation du mouvement NIMBY (Not-in-my-backyard), alors que de plus en plus de personnes, lassées de la pollution sonore et de la consommation d’eau des centres de données dans leur quartier, ont commencé à réclamer leur démantèlement ou à empêcher leur construction.
Pour répondre à ces préoccupations, les entreprises travaillent sur de meilleures solutions, comme le refroidissement liquide pour remplacer les bruyants systèmes de CVC, et promettent une croissance économique durable pour ces zones. Cependant, les habitants restent sceptiques et beaucoup s’y opposent fermement, allant jusqu’à qualifier ces centres de « cancer ».
Si vous lisez ceci, vous avez déjà une longueur d’avance. Restez-le grâce à notre newsletter.

