WEKA erhält die Zertifizierung als NVIDIA Cloud Network Partner
Die WEKA Data Platform ist jetzt als Hochleistungs-Datenspeicherlösung mit der NVIDIA Cloud Partner Reference Architecture für GPU Compute Infrastructure zertifiziert
CAMPBELL, Kalifornien, 25. September 2024 /PRNewswire/ -- WekaIO (WEKA), das Unternehmen für KI-native Datenplattformen, gab heute bekannt, dass die WEKA® Data Platform als Hochleistungs-Datenspeicher für NVIDIA Partner Network Cloud-Partner zertifiziert wurde. Mit dieser Zertifizierung können NVIDIA Cloud-Partner nun die außergewöhnliche Leistung, Skalierbarkeit, Betriebseffizienz und Benutzerfreundlichkeit der WEKA Data Platform über die gemeinsam validierte Weka Reference Architecture für NVIDIA Cloud-Partner nutzen, die NVIDIA HGX H100-Systeme verwenden.
Die NVIDIA Cloud Partner-Referenzarchitektur bietet eine umfassende, vollwertige Hardware- und Softwarelösung für Cloud-Anbieter, die KI-Dienste und -Workflows für verschiedene Anwendungsfälle anbieten. Die Zertifizierung der Speicherkapazität von WEKA stellt sicher, dass WEKApod™-Geräte und Hardware von WEKA-qualifizierten Serverpartnern die NVIDIA Cloud Partner-Spezifikationen für Hochleistungsspeicher (High-Performance Storage, HPS) für KI-Cloud-Umgebungen erfüllen.
Die Zertifizierung unterstreicht die Fähigkeit der WEKA Data Platform, leistungsstarke Leistung im großen Maßstab zu bieten und KI-Workloads zu beschleunigen. Sie liefert einen Lesedurchsatz von bis zu 48 GB/s und einen Schreibdurchsatz von über 46 GB/s auf einem einzelnen HGX H100-System und unterstützt bis zu 32.000 NVIDIA-GPUs in einem einzelnen NVIDIA Spectrum-X Ethernet-Netzwerkcluster. NVIDIA Cloud Partner können jetzt die WEKA Data Platform mit großen KI-Infrastrukturen auf Basis von NVIDIA GPUs kombinieren, um ihre Kunden bei der schnellen Implementierung und Skalierung von KI-Projekten zu unterstützen.
„KI-Innovatoren wenden sich zunehmend Hyperscale- und Spezial-Cloud-Anbietern zu, um das Training und die Inferenz von Modellen voranzutreiben und ihre fortschrittlichen Computerprojekte aufzubauen", so Nilesh Patel, Produktvorstand bei WEKA. „Die zertifizierte Referenzarchitektur von WEKA ermöglicht es NVIDIA Cloud-Partnern und ihren Kunden, jetzt eine vollständig validierte, KI-native Datenverwaltungslösung einzusetzen, die dazu beitragen kann, die Zeit bis zum Ergebnis zu verbessern und gleichzeitig die Kosten für Strom und Rechenzentrumsinfrastruktur erheblich zu senken."
Die KI-Revolution treibt die Nachfrage nach speziellen Cloud-Lösungen in die Höhe
Die weltweite Nachfrage nach GPU-Zugang der nächsten Generation ist in die Höhe geschnellt, da die Unternehmen dazu übergehen, generative KI schnell einzuführen und sich einen Wettbewerbsvorteil in einem breiten Spektrum von Anwendungsfällen zu verschaffen. Dies hat den Aufstieg einer neuen Art von spezialisierten KI-Cloud-Service-Anbietern gefördert, die einen breiten GPU-Zugang bieten, indem sie beschleunigte Rechen- und KI-Infrastrukturlösungen für Unternehmen jeder Größe und in jeder Branche bereitstellen. Da KI-Projekte von Unternehmen Trainings-, Inferenz- und RAG-Workflows (Retrieval-Augmented Generation) in größeren GPU-Umgebungen zusammenführen, stehen diese Cloud-Anbieter oft vor großen Herausforderungen im Bereich des Datenmanagements, wie z. B. Datenintegration und -portabilität, Minimierung der Latenzzeiten und Kostenkontrolle durch effiziente GPU-Nutzung.
Die KI-native Datenplattform von WEKA optimiert und beschleunigt Datenpipelines und trägt dazu bei, dass GPUs kontinuierlich mit Daten gesättigt sind, um eine maximale Auslastung zu erreichen, das Training und die Inferenz von KI-Modellen zu optimieren und leistungsintensive Arbeitslasten zu beschleunigen. Es bietet eine vereinfachte, abstimmungsfreie Speichererfahrung, die die Leistung über alle Input-/Output-Profile hinweg optimiert und Cloud-Anbietern dabei hilft, KI-Workflows zu vereinfachen, um die Komplexität der Datenverwaltung und den Personalaufwand zu reduzieren.
Viele NVIDIA Cloud-Partner bauen ihre Serviceangebote auch unter dem Aspekt der Nachhaltigkeit auf und setzen energieeffiziente Technologien und nachhaltige KI-Praktiken ein, um die Umweltbelastung zu reduzieren. Die WEKA Data Platform verbessert die GPU-Effizienz und die Effektivität des Trainings und der Inferenz von KI-Modellen erheblich, wodurch Cloud-Dienstanbieter 260 Tonnen CO2e pro Petabyte gespeicherter Daten vermeiden können. Dies kann den Energie- und Kohlenstoff-Fußabdruck ihrer Rechenzentren und die Umweltauswirkungen der KI- und HPC-Initiativen ihrer Kunden weiter verringern.
„Die WEKA Data Platform ist entscheidend für die Optimierung der Leistung von Yottas Shakti Cloud, Indiens schnellster KI-Supercomputing-Infrastruktur. Shakti Cloud ermöglicht es uns, skalierbare GPU-Services für Unternehmen jeder Größe bereitzustellen, den Zugang zu High-Performance-Computing-Ressourcen zu demokratisieren und es Unternehmen zu ermöglichen, KI durch unsere umfangreiche NVIDIA H100 GPU-Flotte vollständig zu nutzen. Mit dieser Erweiterung können unsere Kunden generative KI mit Billionen von Parametern in Echtzeit effizient auf Sprachmodelle anwenden", sagte Sunil Gupta, Mitbegründer, leitender Direktor und Geschäftsführer von Yotta Data Services, einem NVIDIA Cloud-Partner. „Bei Yotta sind wir fest entschlossen, das Wachstum von Rechenzentren mit Nachhaltigkeit und Energieeffizienz in Einklang zu bringen. Wir sind bestrebt, energieeffiziente KI-Technologien einzusetzen, um die Auswirkungen unserer Rechenzentren auf die Umwelt zu minimieren, und gleichzeitig unsere Infrastruktur weiter auszubauen, um der wachsenden Nachfrage gerecht zu werden. WEKA hilft uns dabei, dieses Ziel zu erreichen."
Zu den wichtigsten Vorteilen der WEKA Reference Architecture für NVIDIA Cloud-Partner gehören:
- Außergewöhnliche Leistung: Validierter hoher Durchsatz und geringe Latenzzeiten tragen dazu bei, die Trainings- und Inferenzzeit von KI-Modellen von Tagen auf Stunden zu reduzieren, und bieten bis zu 48 GB/s Lesedurchsatz und über 46 GB/s Schreibdurchsatz für ein einzelnes HGX H100-System.
- Maximale GPU-Auslastung: WEKA bietet konsistente Leistung und lineare Skalierbarkeit auf allen HGX H100-Systemen und optimiert Datenpipelines, um die GPU-Auslastung um das bis zu 20-fache zu verbessern, was dazu führt, dass für Workloads mit hohem Datenverkehr weniger GPUs benötigt werden, während die Leistung maximiert wird.
- Mehrmandantenfähigkeit auf Dienstanbieterebene: Sichere Zugriffskontrollen und virtuell zusammensetzbare Cluster bieten Ressourcentrennung und unabhängige Verschlüsselung, um den Datenschutz und die Leistung der Kunden zu wahren.
- Beseitigung von Checkpoint-Stopps: Skalierbares Checkpointing mit geringer Latenz ist für das Training großer Modelle, die Risikominderung und die betriebliche Vorhersagbarkeit von entscheidender Bedeutung.
- Massiver Maßstab: Unterstützt bis zu 32.000 NVIDIA H100-Grafikprozessoren und eine Exabyte-Kapazität in einem einzigen Namespace über ein NVIDIA Spectrum-X-Ethernet-Backbone, um den Anforderungen jeder Einsatzgröße gerecht zu werden.
- Vereinfachte Operationen: Die Zero-Tuning-Architektur bietet eine lineare Skalierung von Metadaten- und Datendiensten und rationalisiert die Entwicklung, Bereitstellung und Verwaltung unterschiedlicher Cloud-Umgebungen mit mehreren Arbeitslasten.
- Geringere Komplexität und höhere Effizienz: WEKA bietet eine erstklassige Leistung bei einem Zehntel des Platzbedarfs und der Verkabelung von Rechenzentren im Vergleich zu Konkurrenzlösungen. Dadurch werden die Komplexität der Infrastruktur, die Speicher- und Energiekosten sowie die damit verbundenen Umweltauswirkungen reduziert, um eine nachhaltigere Nutzung von KI zu fördern.
Um mehr über die WEKA-Referenzarchitektur für NVIDIA Cloud-Partner zu erfahren, besuchen Sie https://www.weka.io/company/partners/technology-alliance-partners/nvidia.
Um zu erfahren, wie WEKA die GPU-Beschleunigung verbessern kann, besuchen Sie: https://www.weka.io/data-platform/solutions/gpu-acceleration/.
Informationen zu WEKA
WEKA entwickelt einen neuen Ansatz für den Unternehmensdaten-Stack, der für die KI-Ära konzipiert ist. Die „WEKA® Data Platform" setzt mit einer Cloud- und KI-nativen Architektur, die überall eingesetzt werden kann und eine nahtlose Datenportabilität zwischen lokalen, Cloud- und Edge-Umgebungen bietet, neue Maßstäbe für KI-Infrastrukturen. Sie verwandelt veraltete Datensilos in dynamische Datenpipelines, die Grafikprozessoren, das Training und die Inferenz von KI-Modellen sowie andere leistungsintensive Arbeitslasten beschleunigen und es ihnen ermöglichen, effizienter zu arbeiten, weniger Energie zu verbrauchen und die damit verbundenen CO2-Emissionen zu reduzieren. WEKA unterstützt die innovativsten Unternehmen und Forschungseinrichtungen der Welt bei der Bewältigung komplexer Datenherausforderungen, um schneller und nachhaltiger zu Entdeckungen, Erkenntnissen und Ergebnissen zu gelangen – darunter 12 der Fortune 50. Besuchen Sie www.weka.io, um mehr zu erfahren, oder verbinden Sie sich mit WEKA auf LinkedIn, X und Facebook.
WEKA und das WEKA-Logo sind eingetragene Marken von WekaIO, Inc. Andere hier verwendete Markennamen können Marken der jeweiligen Eigentümer sein.
Foto - https://mma.prnewswire.com/media/2511528/PR_weka_nvidia_NCP_1200x675.jpg
Artikel teilen