Supermicro breidt AI-geoptimaliseerde productportfolio uit met een nieuwe generatie systemen en rack-architecturen met nieuwe NVIDIA Blackwell Architecture-oplossingen
Krachtige en energiezuinige oplossingen voor grootschalige communicatieserviceproviders (CSP's) en netwerkserviceproviders (NSP's) bevatten een volledig pakket NVIDIA GPU's en CPU's van de volgende generatie met het NVIDIA Quantum X800-platform en NVIDIA AI Enterprise 5.0
SAN JOSE, Calif., 19 maart 2024 /PRNewswire/ -- NVIDIA GTC 2024, -- Supermicro, Inc. (NASDAQ: SMCI), een aanbieder van totale IT-oplossingen voor AI, cloud, opslag en 5G/Edge, kondigt nieuwe AI-systemen aan voor grootschalige generatieve AI met NVIDIA's volgende generatie datacenterproducten. Dit zijn de nieuwste NVIDIA GB200 Grace™ Blackwell Superchip, de NVIDIA B200 Tensor Core en B100 Tensor Core GPU's. Supermicro verbetert zijn huidige NVIDIA HGX™ H100/H200 8-GPU-systemen en wil instapklaar zijn voor de NVIDIA HGX™ B100 8-GPU, met een verbeterde versie voor de B200, zodat kortere levertijden worden bereikt. Daarnaast versterkt Supermicro zijn brede NVIDIA MGX™ systeemlijn verder met nieuwe aanbiedingen die zijn uitgerust met de NVIDIA GB200, inclusief de NVIDIA GB200 NVL72, een complete rack-level oplossing met 72 NVIDIA Blackwell GPU's. Supermicro voegt ook nieuwe systemen toe aan het assortiment, zoals het 4U NVIDIA HGX B200 8-GPU-vloeistofgekoelde systeem.
"Dankzij onze focus op het bouwen van blokarchitectuur en allesomvattende IT op rack-schaal voor AI kunnen wij systemen van de volgende generatie ontwerpen voor de verbeterde vereisten van de op NVIDIA Blackwell-architectuur gebaseerde GPU's. We hebben nu het nieuwe 4U vloeistofgekoelde NVIDIA HGX B200 8-GPU-systeem, en volledig geïntegreerde direct-to-chip vloeistofgekoelde racks met NVIDIA GB200 NVL72," zegt Charles Liang, president en CEO van Supermicro. "Deze nieuwe producten zijn gebouwd op Supermicro en NVIDIA's bewezen HGX- en MGX- systeemarchitectuur, die geoptimaliseerd js voor de nieuwe mogelijkheden van NVIDIA Blackwell GPU's. Supermicro heeft de expertise om 1kW GPU's te integreren in een breed scala van luchtgekoelde en vloeistofgekoelde systemen, evenals de rack-schaal productiecapaciteit van 5.000 racks/maand en verwacht de eerste te zijn die volledige rack-clusters inzet met NVIDIA Blackwell GPU's."
Supermicro's direct-to-chip vloeistofkoelingstechnologie zal het verhoogde thermische ontwerpvermogen (TDP) van de nieuwste GPU's mogelijk maken en het volledige potentieel van de NVIDIA Blackwell GPU's leveren. Supermicro's HGX- en MGX-systemen met NVIDIA Blackwell zijn de bouwstenen voor de toekomst van AI-infrastructuur en leveren baanbrekende prestaties voor multi-biljoen parameter AI-training en realtime AI-inferentie.
Een breed scala aan GPU-geoptimaliseerde Supermicro-systemen zal klaar zijn voor de NVIDIA Blackwell B200 en B100 Tensor Core GPU en worden gevalideerd voor de nieuwste NVIDIA AI Enterprise-software. Dit biedt extra ondersteuning voor NVIDIA NIM -inferentie microservices. De Supermicro-systemen omvatten:
- NVIDIA HGX B100 8-GPU- en HGX B200 8-GPU-systemen
- 5U/4U PCIe GPU-systeem met maximaal 10 GPU's
- SuperBlade® met tot 20 B100 GPU's voor 8U-behuizingen en tot 10 B100 GPU's in 6U-behuizingen
- 2U Hyper met maximaal 3 B100 GPU's
- Supermicro 2U x86 MGX-systemen met maximaal 4 B100 GPU's
Voor het trainen van gigantische AI-modellen staat Supermicro klaar om als eerste op de markt NVIDIA HGX B200 8-GPU- en HGX B100 8-GPU-systemen uit te brengen. Deze systemen zijn voorzien van 8 NVIDIA Blackwell GPU's die zijn verbonden via een supersnelle vijfde generatie NVIDIA® NVLink® interconnect met 1,8 TB/s, wat de prestaties van de vorige generatie verdubbelt. Het high bandwidth geheugen is in totaal 1,5 TB. Deze leveren drie keer snellere trainingsresultaten voor LLM's, zoals het GPT-MoE-1,8T model, in vergelijking met de NVIDIA Hopper architectuurgeneratie. De systemen zijn voorzien van geavanceerde netwerken om te schalen naar clusters, met ondersteuning voor zowel NVIDIA Quantum-2 InfiniBand als NVIDIA Spectrum-X Ethernet-opties met een 1:1 GPU-naar-NIC-verhouding.
"Supermicro blijft een verbazingwekkende reeks servers met een versneld computerplatform op de markt brengen die zijn afgestemd op AI-training en inferentie en die kunnen voorzien in elke behoefte in de markt van vandaag," aldus Kaustubh Sanghani, vicepresident GPU- productbeheer bij NVIDIA. "We werken nauw samen met Supermicro om klanten de meest geoptimaliseerde oplossingen te kunnen bieden."
Voor de meest veeleisende LLM-inferentiewerklasten brengt Supermicro verschillende nieuwe MGX-systemen uit die zijn gebouwd met de NVIDIA GB200 Grace Blackwell Superchip, die een NVIDIA Grace CPU met twee NVIDIA Blackwell GPU's combineert. Supermicro's NVIDIA MGX met GB200 systemen leveren een enorme sprong voorwaarts in prestaties voor AI-inferentie met tot 30 maal hogere snelheden in vergelijking met de NVIDIA HGX H100. Supermicro en NVIDIA hebben een rack-oplossing ontwikkeld met de NVIDIA GB200 NVL72, die 36 Grace CPU's en 72 Blackwell GPU's in één rack verbindt. Alle 72 GPU's zijn onderling verbonden met NVIDIA NVLink van de vijfde generatie voor GPU-naar-GPU-communicatie met een snelheid van 1,8 TB/s. Daarnaast kondigt Supermicro voor inferentiewerklasten de ARS-221GL-NHIR aan, een 2U-server gebaseerd op de GH200-productlijn, waarbij twee GH200-servers met elkaar verbonden zijn via een hogesnelheidsinterconnector van 900 Gb/s. Kom naar de Supermicro Booth op GTC voor meer informatie.
Supermicro-systemen zullen ook het aankomende NVIDIA Quantum-X800 InfiniBand-platform ondersteunen, bestaande uit de NVIDIA Quantum-X800 QM3400 switch en de SuperNIC800, en het NVIDIA Spectrum-X800 Ethernet-platform, bestaande uit de NVIDIA Spectrum-X800 SN5600 switch en de SuperNIC800. De NVIDIA Quantum-X800 en Spectrum-X800 zijn geoptimaliseerd voor de NVIDIA Blackwell-architectuur en leveren netwerkprestaties van het hoogste niveau voor AI-infrastructuren.
Ga voor meer informatie over Supermicro NVIDIA-oplossingen naar https://www.supermicro.com/en/accelerators/nvidia
Supermicro's aankomende systeemlijn met NVIDIA B200 en GB200 bestaat uit:
- De NVIDIA HGX B200 8-GPU luchtgekoelde en vloeistofgekoelde systemen van Supermicro zijn voor de hoogste generatieve AI-trainingsprestaties. Dit systeem bevat 8 NVIDIA Blackwell GPU's die zijn verbonden via NVLink van de vijfde generatie met een pool van 1,5 TB high bandwidth geheugen (tot 60 TB/s) om AI-trainingstaken te versnellen.
- Supermicro's best verkochte AI Training System, het 4U/8U systeem met NVIDIA HGX H100/H200 8-GPU, zal NVIDIA's aankomende HGX B100 8-GPU ondersteunen.
- Een Supermicro Rack-oplossing met GB200 Superchip-systemen als serverknooppunten met 2 Grace CPU's en 4 NVIDIA Blackwell GPU's per knooppunt. Supermicro's direct-to-chip vloeistofkoeling maximaliseert de dichtheid met 72 GB200 192GB GPU's (1200W TDP per GPU), allemaal in een enkel 44U ORV3 rack.
Supermicro op GTC 2024
Supermicro zal een compleet portfolio van GPU-systemen voor AI demonstreren tijdens NVIDIA's GTC 2024 evenement van 18-21 maart in het San Jose Convention Center. Bezoek Supermicro op stand #1016 om oplossingen te zien die gebouwd zijn voor een breed scala aan AI-toepassingen, waaronder het trainen van generatieve AI-modellen, AI-inferentie en edge AI. Supermicro zal ook twee rack-oplossingen laten zien, waaronder een rackconcept met systemen van de aankomende NVIDIA GB200 met 72 vloeistofgekoelde GPU's die onderling zijn verbonden met NVLink van de vijfde generatie.
- De getoonde Supermicro-oplossingen op GTC 2024 zijn onder andere:
- Supermicro vloeistofgekoeld AI-trainingsrack met 8 4U 8-GPU-systemen en NVIDIA HGX H200 8-GPU's
- Supermicro ORV3 rackconcept met vloeistofgekoelde MGX systeemnodes, met in totaal 72 NVIDIA GB200 Superchips verbonden via NVLink van de vijfde generatie.
- Supermicro MGX-systemen, inclusief het 1U vloeistofgekoelde NVIDIA GH200 Grace Hopper Superchip-systeem
- Supermicro Hyper-E-systeem met korte diepte voor de levering van GPU-rekenkracht aan de rand
- Supermicro Petascale all-flash opslagsysteem voor krachtige AI- datapijplijnen
Over Super Micro Computer, Inc.
Supermicro (NASDAQ: SMCI) is een wereldwijd toonaangevend bedrijf op het gebied van allesomvattende IT-oplossingen met toepassingsoptimalisatie. Supermicro is opgericht en gevestigd in San Jose, Californië. Het bedrijf streeft ernaar om first-to-market innovatie te leveren voor Enterprise-, Cloud-, AI- en 5G Telco/Edge IT-infrastructuur. Wij zijn een Total IT Solutions Manufacturer en leveren server-, AI-, opslag-, IoT- en switchsystemen, software en ondersteuningsdiensten. Supermicro's deskundigheid op het gebied van moederbord-, voeding- en chassisontwerp maakt onze ontwikkeling en productie verder mogelijk, zodat wij innovatie van de volgende generatie, van cloud tot edge, kunnen realiseren voor onze wereldwijde klanten. Onze producten worden in eigen huis ontworpen en geproduceerd (in de VS, Taiwan en Nederland). Hierbij maken we gebruik van wereldwijde faciliteiten voor schaal en efficiëntie, geoptimaliseerd om de TCO te verlagen en de impact op het milieu te verminderen (Green Computing). Het bekroonde portfolio van Server Building Block Solutions® stelt klanten in staat hun systeem te optimaliseren voor hun exacte workload en toepassing door een keuze te maken uit een brede selectie van systemen die zijn opgebouwd uit onze flexibele en herbruikbare bouwstenen, met ondersteuning van een grote verscheidenheid van vormfactoren, processors, geheugen, GPU's en opslag-, netwerk-, voedings- en koeloplossingen (airconditioning, vrije luchtkoeling of vloeistofkoeling).
Supermicro, Server Building Block Solutions en We Keep IT Green zijn handelsmerken en/of gedeponeerde handelsmerken van Super Micro Computer, Inc.
Alle andere merken, namen en handelsmerken zijn eigendom van de respectieve eigenaars.
SMCI-F
Foto - https://mma.prnewswire.com/media/2365522/4118657.jpg
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
Dit artikel delen