Microsoft kocht dit jaar twee keer zoveel vlaggenschipchips van Nvidia als al zijn grootste rivalen in de VS en China, omdat de grootste investeerder van OpenAI zijn investeringen in de infrastructuur voor kunstmatige intelligentie versnelde.
Analisten bij Omdia, een technologieadviesbureau, schatten dat Microsoft dit jaar 485.000 Nvidia’s ‚Hopper‘-chips heeft gekocht. Daarmee lag Microsoft ver voor op Nvidia’s volgende grootste Amerikaanse klant Meta, die 224.000 Hopper-chips kocht, en op zijn cloud computing-rivalen Amazon en Google.
Omdat de vraag de afgelopen twee jaar het aanbod van Nvidia’s meest geavanceerde grafische verwerkingseenheden overtreft, heeft de chipvoorraad van Microsoft het bedrijf een voorsprong gegeven in de race om de volgende generatie AI-systemen te bouwen.
Dit jaar hebben Big Tech-bedrijven tientallen miljarden dollars uitgegeven aan datacenters met de nieuwste chips van Nvidia, die het populairste product in Silicon Valley zijn geworden sinds het debuut van ChatGPT twee jaar geleden een ongekende stijging van de investeringen in AI op gang bracht.
De Azure-cloudinfrastructuur van Microsoft werd gebruikt om OpenAI’s te trainen laatste o1 model, terwijl ze racen tegen een heroplevend Google, start-ups zoals Anthropic en xAI van Elon Musk, en rivalen in China om de dominantie van de volgende generatie computers.
Omdia schat dat ByteDance en Tencent dit jaar elk ongeveer 230.000 Nvidia-chips hebben besteld, inclusief het H20-model, een minder krachtige versie van Hopper die is aangepast om te voldoen aan de Amerikaanse exportcontroles voor Chinese klanten.
Amazon en Google, die samen met Meta de inzet van hun eigen aangepaste AI-chips opvoeren als alternatief voor die van Nvidia, kochten respectievelijk 196.000 en 169.000 Hopper-chips, aldus de analisten.
Omdia analyseert de openbaar gemaakte kapitaaluitgaven, serververzendingen en supply chain-informatie van bedrijven om haar schattingen te berekenen.
De waarde van Nvidiadat nu Hopper’s opvolger Blackwell begint uit te rollen, is dit jaar gestegen naar meer dan $3 biljoen, nu Big Tech-bedrijven zich haasten om steeds grotere clusters van hun GPU’s samen te stellen.
De buitengewone stijging van het aandeel is de afgelopen maanden echter afgenomen vanwege de zorgen over langzamere groeiconcurrentie van de eigen aangepaste AI-chips van Big Tech-bedrijven en mogelijke verstoring van hun activiteiten in China door de nieuwe regering van Donald Trump in de VS.
ByteDance en Tencent zijn dit jaar twee van de grootste klanten van Nvidia geworden, ondanks beperkingen van de Amerikaanse overheid op de mogelijkheden van Amerikaanse AI-chips die in China kunnen worden verkocht.
Microsoft, dat 13 miljard dollar heeft geïnvesteerd in OpenAI, is van de Amerikaanse Big Tech-bedrijven het meest agressief geweest bij het uitbouwen van de datacenterinfrastructuur, zowel om zijn eigen AI-diensten zoals de Copilot-assistent te runnen als om aan klanten te verhuren via zijn Azure-divisie. .
De Nvidia-chipbestellingen van Microsoft zijn meer dan driemaal zo groot als het aantal van dezelfde generatie Nvidia’s AI-processors dat het in 2023 kocht, toen Nvidia racete om op te schalen productie van Hopper na het doorbraaksucces van ChatGPT.
„Goede datacenterinfrastructuur, het zijn zeer complexe, kapitaalintensieve projecten“, vertelde Alistair Speirs, senior directeur van Microsoft Azure Global Infrastructure, aan de Financial Times. “Ze vergen een planning van meerdere jaren. En dus is het belangrijk om te voorspellen waar onze groei zal zijn, met een beetje buffer.”
Technologiebedrijven over de hele wereld zullen volgens Omdia in 2024 naar schatting 229 miljard dollar uitgeven aan servers, aangevoerd door de 31 miljard dollar aan kapitaaluitgaven van Microsoft en de 26 miljard dollar van Amazon. De top 10 kopers van datacenterinfrastructuur – waartoe nu de relatieve nieuwkomers xAI en CoreWeave behoren – vertegenwoordigen 60 procent van de wereldwijde investeringen in rekenkracht.
Vlad Galabov, directeur cloud- en datacenteronderzoek bij Omdia, zei dat in 2024 ongeveer 43 procent van de uitgaven aan servers naar Nvidia ging.
„Nvidia GPU’s claimden een enorm groot deel van de serverinvesteringen“, zei hij. “We zijn dicht bij de top.”
Terwijl Nvidia nog steeds de AI-chipmarkt domineert, is zijn rivaal AMD uit Silicon Valley dat wel geweest doorbraak maken. Meta kocht dit jaar 173.000 AMD MI300-chips, terwijl Microsoft er volgens Omdia 96.000 kocht.
Big Tech-bedrijven hebben dit jaar ook het gebruik van hun eigen AI-chips opgevoerd, omdat ze proberen hun afhankelijkheid van Nvidia te verminderen. Google, dat al tien jaar zijn ‘tensor processing units’ of TPU’s ontwikkelt, en Meta, dat vorig jaar de eerste generatie van zijn Meta Training- en Inference Accelerator-chip debuteerde, hebben elk ongeveer 1,5 miljoen van hun eigen chips ingezet.
Amazon, dat zwaar investeert in zijn Trainium- en Inferentia-chips voor cloud computing-klanten, heeft dit jaar ongeveer 1,3 miljoen van die chips ingezet. Amazon zei deze maand dat het van plan is een nieuw cluster te bouwen met honderdduizenden van zijn nieuwste Trainium-chips voor Anthropic, een OpenAI-rivaal waarin Amazon 8 miljard dollar heeft geïnvesteerd, om de volgende generatie van zijn AI-modellen te trainen.
Microsoft is echter veel eerder in zijn poging om een AI-versneller te bouwen die kan wedijveren met die van Nvidia, met slechts ongeveer 200.000 van zijn Maia-chips dit jaar geïnstalleerd.
Speirs zei dat het gebruik van Nvidia’s chips nog steeds vereist dat Microsoft aanzienlijke investeringen doet in zijn eigen technologie om klanten een „unieke“ service te kunnen bieden.
“Het bouwen van de AI-infrastructuur gaat, naar onze ervaring, niet alleen over het hebben van de beste chip, het gaat ook over het hebben van de juiste opslagcomponenten, de juiste infrastructuur, de juiste softwarelaag, de juiste hostbeheerlaag, foutcorrectie en al deze andere dingen. componenten om dat systeem te bouwen”, zei hij.