Deep-dive: Cerebras
Het wafer-scale paradigma: de regels van silicium herschreven
Cerebras hanteert een architecturaal uitgangspunt dat radicaal afwijkt van de gevestigde halfgeleiderindustrie. In plaats van een standaard 12-inch silicium-wafer in tientallen individuele chips te zagen, laat het bedrijf de wafer intact om één gigantische processor te creëren. De huidige iteratie, de Wafer-Scale Engine 3, wordt geproduceerd via een 5nm-proces en bevat 4 biljoen transistors naast 900.000 rekenkernen. Met een oppervlakte van 46.225 mm² is deze ongeveer 57 keer groter dan traditionele hardware-accelerators. Dit enorme monolithische oppervlak pakt direct het voornaamste knelpunt in moderne rekenintensieve workloads aan: de 'memory wall'. Door 44 GB aan SRAM direct op de wafer te behouden, levert Cerebras een ongekende geheugenbandbreedte van 21 PB/s, waarmee de latentie en energiekosten die gepaard gaan met het verplaatsen van data tussen afzonderlijke chips worden omzeild.
Het bedrijf monetariseert deze architectuur via een hybride bedrijfsmodel dat zowel hardwareverkoop als cloudcomputingdiensten omvat. Cerebras verkoopt geen losse siliciumcomponenten. Het verpakt de wafer in een eigen 'turnkey' apparaat, de CS-3, waarin stroomvoorziening, vloeistofkoeling en host-interfaces zijn geïntegreerd in een behuizing die een derde van een standaard datacenter-rack in beslag neemt. De omzet werd historisch gedreven door grootschalige, projectgebaseerde clusterimplementaties, die voornamelijk soevereine supercomputers vormden. Het bedrijfsmodel verschuift echter agressief naar een 'infrastructure-as-a-service'-benadering. Via zijn inference cloud-divisie en partnerschappen met grote publieke cloudoperators genereert het bedrijf inkomsten door beheerde rekencapaciteit te leveren aan ontwikkelaars. Hierbij richt het zich op ondernemingen die deterministische prestaties met lage latentie vereisen voor fundamentele modellen, zonder de kapitaalinvesteringen voor de aanschaf van fysieke hardware-infrastructuur.
Klantconcentratie en de soevereine reddingslijn
Een analyse van de financiële structuur van het bedrijf onthult een extreme kwetsbaarheid onder de explosieve omzetgroei. Cerebras rapporteerde $510 miljoen aan totale omzet voor 2025, een stijging van 76% op jaarbasis. Maar liefst 86% van deze omzet was echter afkomstig van slechts twee entiteiten in de Verenigde Arabische Emiraten. De Mohamed bin Zayed University of Artificial Intelligence was alleen al verantwoordelijk voor 62% van de jaaromzet en 78% van de uitstaande handelsvorderingen, terwijl Group 42 nog eens 24% bijdroeg. Tegelijkertijd kromp de omzet van in de Verenigde Staten gefactureerde klanten met 34% op jaarbasis tot $187,6 miljoen. Het bedrijf fungeert momenteel minder als een gediversifieerde leverancier voor het bedrijfsleven en meer als een gebonden hardwareleverancier voor een gelokaliseerd soeverein initiatief. Bovendien rapporteerde het bedrijf een niet-GAAP operationeel verlies van $75,7 miljoen over 2025, een vergroting ten opzichte van de $21,8 miljoen in het voorgaande jaar, ondanks het erkennen van een boekhoudkundige winst van $363 miljoen (niet in contanten) gekoppeld aan een herstructurering van verplichtingen met Group 42.
Om deze existentiële klantconcentratie te compenseren, sloot Cerebras in december 2025 een transformatieve raamovereenkomst ter waarde van $20 miljard met OpenAI. Dit contract verplicht de klant tot de afname van 750 MW aan inference-rekencapaciteit tot 2028, met opties om dit uit te breiden naar 2 GW tegen 2030. De transactie omvatte een structurele werkkapitaallening van $1 miljard van de klant aan Cerebras, tegen een rentevoet van 6%. Hoewel deze overeenkomst de technologie op het hoogste niveau van het ecosysteem valideert, ruilt het de ene vorm van concentratierisico in voor de andere. De uitvoering van deze enorme orderportefeuille hangt sterk af van externe factoren, waaronder de beschikbaarheid van netstroom en de productiecapaciteit van toeleveranciers. Cerebras is volledig afhankelijk van één foundry die gebruikmaakt van één 5nm-procesnode. Nu die specifieke foundry zijn 5nm-capaciteit actief ombouwt naar een 3nm-geometrie om de grootste marktspelers te bedienen, wordt Cerebras geconfronteerd met dreigende risico's in de toeleveringsketen die de marges kunnen onderdrukken of de beschikbaarheid van hardware kunnen vertragen, juist op het moment dat de enorme capaciteitsverplichtingen moeten worden opgeschaald.
Marktstructuur en het inference-slagveld
De markt voor datacenter-halfgeleiders, die naar verwachting zal groeien tot $604 miljard in 2033, ondergaat een structurele faseverschuiving van modeltraining naar model-inference. Tijdens het vroege tijdperk van training domineerden clusters van homogene, voor algemene doeleinden geschikte rekenprocessors vanwege hun flexibiliteit en volwassen software-ecosystemen. Eén dominante speler beheerst nog steeds ongeveer 94% van die markt voor hardware voor algemene doeleinden. Naarmate de adoptie door ondernemingen echter toeneemt, vertegenwoordigen inference-taken nu het overgrote deel van de operationele rekenkosten. De uitvoering van inference is uiterst gevoelig voor geheugenbandbreedte en latentie, vaak gemeten als de tijd die nodig is om het eerste output-token te genereren. Dit veranderende paradigma is sterk in het voordeel van application-specific integrated circuits (ASIC's) die strikt zijn ontworpen voor decodeerlogica. De markt voor aangepaste accelerators zal naar verwachting $118 miljard bereiken in 2033, met een samengestelde jaarlijkse groei van 27%, naarmate hyperscalers streven naar superieure unit-economie.
Cerebras is momenteel de grootste onafhankelijke leverancier in deze categorie van maatwerk-hardware, maar krijgt te maken met een agressief verdedigingsmanoeuvre van de gevestigde marktleider. De dominante hardwareleverancier onderkende de dreiging van gespecialiseerd inference-silicium en voerde eind 2025 een overname van $20 miljard uit van een toonaangevende ontwerper van alternatieve inference-chips. Deze overname integreert specifieke technologie voor taalverwerking direct in de aanstaande heterogene rack-architectuur van de marktleider, die in 2026 op de markt moet komen. Dit consolideert het concurrentielandschap tot een binaire strijd: de homogene wafer-scale-aanpak van Cerebras tegenover het diep gewortelde, multi-architectuur ecosysteem van de gevestigde partij. Als de marktleider naadloos snelle, gedesaggregeerde inference-prestaties kan leveren binnen zijn alomtegenwoordige softwareframework, krimpt de adresseerbare markt voor losse Cerebras-hardware aanzienlijk.
Concurrentievoordelen en de fysica van rekenkracht
Het voornaamste concurrentievoordeel van Cerebras is geworteld in de fysica van hardware in plaats van in software-dominantie. Door de productie-uitdaging van wafer-scale-integratie op te lossen – een technisch obstakel waar de industrie decennialang mee worstelde – heeft het bedrijf de verhouding tussen stroomverbruik en prestaties voor grote matrixvermenigvuldigingen fundamenteel veranderd. Traditionele gedistribueerde computing vereist het verdelen van grote neurale netwerken over duizenden kleinere, afzonderlijke chips, wat leidt tot enorme softwarecomplexiteit en knelpunten door netwerklatentie. Een enkel Cerebras CS-3-systeem kan vaak volledige grote modellen binnen zijn eigen geheugen vasthouden, waardoor de complexiteit van netwerken op systeemniveau effectief wordt vervangen door integratie op siliciumniveau. Deze deterministische schaalbaarheid biedt lineaire prestatieverbeteringen zonder de variabiliteit en synchronisatie-overhead die kenmerkend zijn voor gedistribueerde datacenterclusters.
Deze structurele 'moat' wordt echter zwaar verdedigd door redundante engineering. Wafer-scale-silicium staat erom bekend dat het moeilijk te produceren is; een enkel microscopisch defect kan in theorie een hele wafer verpesten. Cerebras omzeilt dit door de hardware uit te rusten met miljoenen redundante reken- en geheugencellen, waardoor defecte gebieden op productieniveau dynamisch worden omzeild. Hoewel dit het opbrengstprobleem oplost, zijn de resulterende systemen extreem kapitaalintensief. Een enkele fysieke node kost naar schatting tussen de $2 miljoen en $3 miljoen en verbruikt meer dan 15 kW aan stroom. Dit operationele profiel beperkt de adresseerbare markt van het bedrijf tot cloudproviders van het eerste niveau, enorme overheidslaboratoria en faciliteiten die worden ondersteund door staatsinvesteringsfondsen, wat de adoptie door het bredere bedrijfsleven ernstig beperkt.
Managementstamboom: Het SeaMicro-draaiboek opgeschaald
Het managementteam, onder leiding van Chief Executive Officer Andrew Feldman, brengt een bewezen staat van dienst op het gebied van executie mee naar de enterprise-hardwaresector. De kern van de oprichtersgroep richtte eerder SeaMicro op, een pionier in de categorie van energiezinige microservers met hoge dichtheid, die in 2012 succesvol werd overgenomen voor $334 miljoen. Meer dan 50 ingenieurs van die eerdere onderneming stapten direct over naar Cerebras, wat wijst op een ongewoon hechte engineeringcultuur die al meer dan tien jaar intact is gebleven in een sector die geplaagd wordt door een hoog verloop van talent.
Het management heeft een scherpe strategische wendbaarheid getoond, met name bij het navigeren door complexe regelgevende en geopolitieke tegenwind. Toen de beursgang van het bedrijf eind 2024 werd stilgelegd vanwege nationale veiligheidsonderzoeken naar de kapitaalbanden met Abu Dhabi, orkestreerde de directie een snelle herstructurering van het eigen vermogen naar aandelen zonder stemrecht. Hiermee werd de buitenlandse entiteit agressief uit het bedrijfsbestuur verwijderd en werd begin 2025 federale toestemming verkregen. Bovendien onderstreept de beslissing van het management om overnamebiedingen vroeg in de levenscyclus van het bedrijf af te wijzen en het bedrijf resoluut naar een beurswaarde van $23 miljard te sturen, een hoge operationele overtuiging in hun architecturale roadmap.
De scorekaart
De kernthese voor Cerebras hangt af van de vraag of een elegante architecturale oplossing commerciële adoptie op hyperscale-niveau kan bereiken voordat een gevestigd monopolie de inference-markt volledig opslokt. De onderliggende wafer-scale-technologie lost fundamenteel de beperkingen in geheugenbandbreedte op die moderne software-workloads teisteren, en biedt onmiskenbare economische voordelen voor het genereren van tokens op hoge snelheid. De financiële architectuur van het bedrijf blijft echter precair in balans. Met 86% van de huidige omzet gekoppeld aan één buitenlands soeverein initiatief en een groeiend operationeel verlies dat wordt gemaskeerd door een eenmalige boekhoudkundige winst, is de levensvatbaarheid op korte termijn volledig afhankelijk van de uitvoering van het contract ter waarde van $20 miljard met een toonaangevende softwarebouwer. Dit vereist een vlekkeloos beheer van de toeleveringsketen in een tijd waarin pure-play foundries agressief productiecapaciteit verplaatsen om het hardwaremonopolie van de gevestigde partij te ondersteunen.
Uiteindelijk biedt Cerebras het meest geloofwaardige fysieke alternatief voor het standaard paradigma van afzonderlijke processors, maar het bedrijf staat voor een snel krimpende kans in de markt. De dominante marktleider heeft de existentiële dreiging van gespecialiseerd inference-silicium effectief erkend via enorme recente overnames en bundelt agressief heterogene hardware in zijn alomtegenwoordige ontwikkelaarsecosysteem. Om de waardering van $23 miljard op de publieke markten te rechtvaardigen, moet Cerebras zijn klantenbestand in het bedrijfsleven snel diversifiëren, zijn omzet uit clouddiensten opschalen en definitief bewijzen dat wafer-scale computing kan transformeren van een hooggespecialiseerde soevereine curiositeit naar een gestandaardiseerde, essentiële laag van de wereldwijde cloud-infrastructuur.