Supermicro erweitert GPU-System-Portfolio mit innovativen neuen Servern zur Beschleunigung einer breiten Palette von KI-, HPC- und Cloud-Workloads
NVIDIA HGX A100 4-GPU Plattform und ressourcenschonendes 2U 2-Node GPU System mit Intel Xeon Scalable Prozessoren der 3. Generation
SAN JOSE, Kalifornien, 13. Oktober 2021 /PRNewswire/ -- Super Micro Computer, Inc. (SMCI), ein weltweit führender Anbieter von Unternehmenscomputern, Speicher- und Netzwerklösungen sowie grüner Computertechnologie, kündigt neue Systeme an, die auf NVIDIA® Ampere-Architektur-GPUs und Intel Xeon Scalable Prozessoren der 3. Generation mit integrierten KI-Beschleunigern (Supermicro X12-Serie) basieren. Diese Server sind für anspruchsvolle KI-Anwendungen konzipiert, bei denen niedrige Latenzzeiten und eine hohe Anwendungsleistung von entscheidender Bedeutung sind. Das 2U NVIDIA HGX™ A100 4-GPU-System eignet sich für den Einsatz moderner KI-Trainingscluster im großen Maßstab mit Hochgeschwindigkeits-CPU-GPU- und GPU-GPU-Verbindungen. Das Supermicro 2U 2-Node System reduziert den Energieverbrauch und die Kosten durch die gemeinsame Nutzung von Netzteilen und Lüftern, was die Kohlenstoffemissionen reduziert, und unterstützt eine Reihe von diskreten GPU-Beschleunigern, die an die Arbeitslast angepasst werden können. Beide Systeme enthalten erweiterte Hardware-Sicherheitsfunktionen, die durch die neuesten Intel Software Guard Extensions (Intel SGX) ermöglicht werden.
„Die Ingenieure von Supermicro haben ein weiteres umfangreiches Portfolio an hochleistungsfähigen GPU-basierten Systemen entwickelt, die im Vergleich zu anderen Designs auf dem Markt Kosten, Platz und Stromverbrauch reduzieren", sagt Charles Liang, Präsident und CEO von Supermicro. „Mit unserem innovativen Design können wir Kunden NVIDIA HGX A100 (Codename Redstone) 4-GPU-Beschleuniger für KI- und HPC-Workloads in dichten 2U-Formfaktoren anbieten. Außerdem ist unser 2U-2-Node-System so konzipiert, dass die Stromversorgungs- und Kühlkomponenten gemeinsam genutzt werden können, was die Betriebskosten und die Auswirkungen auf die Umwelt reduziert."
Der 2U NVIDIA HGX A100 Server basiert auf den Intel Xeon Scalable Prozessoren der 3. Generation mit Intel Deep Learning Boost Technologie und ist für Analyse-, Trainings- und Inferenz-Workloads optimiert. Das System liefert eine KI-Leistung von bis zu 2,5 Petaflops mit vier A100-GPUs, die vollständig mit NVIDIA NVLink® verbunden sind und bis zu 320 GB GPU-Speicher bereitstellen, um bahnbrechende Ergebnisse in den Bereichen Data Science und KI zu erzielen. Das System ist bis zu viermal schneller als die vorherige GPU-Generation für komplexe KI-Modelle wie BERT Large Inference und liefert eine bis zu dreifache Leistungssteigerung für BERT Large AI Training.
Darüber hinaus eignen sich diese Systeme aufgrund ihrer fortschrittlichen thermischen und kühltechnischen Konstruktion ideal für Hochleistungscluster, bei denen Knotendichte und Leistungseffizienz Priorität haben. Für diese Systeme ist auch eine Flüssigkeitskühlung erhältlich, was zu weiteren OPEX-Einsparungen führt. Intel Optane™ Persistent Memory (PMem) wird auf dieser Plattform ebenfalls unterstützt, so dass deutlich größere Modelle im Speicher nahe des CPU gehalten werden können, bevor sie von den GPUs verarbeitet werden. Für Anwendungen, die eine Interaktion mehrerer Systeme erfordern, kann das System auch mit vier NVIDIA ConnectX®-6 InfiniBand-Karten mit 200 Gb/s ausgestattet werden, um GPUDirect RDMA mit einem Verhältnis von 1:1 zwischen GPU und DPU zu unterstützen.
Der neue 2U 2-Node ist eine energieeffiziente, ressourcensparende Architektur, bei der jeder Knoten bis zu drei GPUs mit doppelter Breite unterstützen kann. Jeder Knoten verfügt außerdem über einen einzelnen Intel Xeon Scalable Prozessor der 3. Generation mit bis zu 40 Kernen und integrierter KI- und HPC-Beschleunigung. Eine breite Palette von KI-, Rendering- und VDI-Anwendungen wird von dieser Ausgewogenheit von CPUs und GPUs profitieren. Ausgestattet mit Supermicros Advanced I/O Module (AIOM)-Erweiterungssteckplätzen für schnelle und flexible Netzwerkfähigkeiten kann das System auch massive Datenströme für anspruchsvolle KI/ML-Anwendungen, Deep Learning-Training und Inferencing verarbeiten und gleichzeitig die Arbeitslast und die Lernmodelle sichern. Es ist auch ideal für High-End-Cloud-Gaming mit mehreren Instanzen und viele andere rechenintensive VDI-Anwendungen. Darüber hinaus werden virtuelle Content Delivery Networks (vCDNs) in der Lage sein, die steigende Nachfrage nach Streaming-Diensten zu befriedigen. Die Redundanz der Stromversorgung ist eingebaut, da jeder Knoten im Falle eines Ausfalls die Stromversorgung des benachbarten Knotens nutzen kann.
Informationen zu Super Micro Computer, Inc.
Supermicro (SMCI), der führende Innovator im Bereich hochleistungsfähiger, hocheffizienter Servertechnologie, ist ein weltweit führender Anbieter von fortschrittlichen Server Building Block Solutions® für Enterprise Data Center, Cloud Computing, künstliche Intelligenz und Edge Computing Systeme. Supermicro setzt sich mit seiner „We Keep IT Green®"-Initiative für den Schutz der Umwelt ein und bietet seinen Kunden die energieeffizientesten und umweltfreundlichsten Lösungen auf dem Markt.
Supermicro, Server Building Block Solutions und We Keep IT Green sind Handelsmarken und/oder eingetragene Handelsmarken von Super Micro Computer, Inc.
Intel, das Intel Logo und andere Intel Marken sind Marken der Intel Corporation oder ihrer Tochtergesellschaften.
Alle anderen Marken, Namen und Warenzeichen sind das Eigentum ihrer jeweiligen Inhaber.
Photo - https://mma.prnewswire.com/media/1657653/Supermicro_Expands_GPU_System_Portfolio.jpg
Logo - https://mma.prnewswire.com/media/1443241/Supermicro_Logo.jpg
Related Links
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article