Aetina stellt auf der COMPUTEX 2024 den NVIDIA MGX Server vor und stärkt damit die Enterprise Edge AI
Der kompakte, leistungsstarke NVIDIA MGX Server mit modularem Design, der von NVIDIA GPUs und Intel Xeon Prozessoren angetrieben wird, wird die KI-Leistung in Unternehmen verändern und verbessern.
TAIPEI, 4. Juni 2024 /PRNewswire/ -- Aetina, eine Tochtergesellschaft der Innodisk Group und Experte für Edge-KI-Lösungen, freut sich, auf der Computex 2024 seinen innovativen SuperEdge NVIDIA MGX Server mit geringer Tiefe, Modell AEX-2UA1, vorzustellen. Der AEX-2UA1 ist einer der ersten NVIDIA MGX Server mit kurzer x86-CPU-Tiefe, der auf dem Markt vorgestellt wird. Damit erweitert Aetina sein Produktportfolio von spezialisierten Edge-Geräten zu umfassenden KI-Serverlösungen.
Der SuperEdge NVIDIA MGX Server stellt auch einen Meilenstein in der Weiterentwicklung der KI-Roadmap der Innodisk Group dar, die von Sensoren und Speichergeräten über KI-Software-Tools und Computing-Plattformen bis hin zu KI-Edge-Servern reicht. Der SuperEdge-Server bietet maximale Leistung in einem kompakten Formfaktor für Edge Computing und ermöglicht Unternehmen den effektiven Umgang mit sensiblen Daten mit privatem LLM (Large Language Model) und anderen KI-Anwendungen für Unternehmen. Er ist besonders wertvoll in Sektoren wie dem Finanz- und Gesundheitswesen, wo der Datenschutz von größter Bedeutung ist, und in der 5G-Telekommunikation, da er ein kompaktes, leistungsstarkes und platzoptimiertes System bietet, das sich ideal für unternehmenskritische Anwendungen und Einsätze eignet.
Der NVIDIA MGX Server beschleunigt die KI-Bereitstellung in Unternehmen vor Ort
Unternehmen machen sich die rasanten Veränderungen zu eigen, die durch generative KI beschleunigt werden. Für Branchen, die mit sensiblen Daten umgehen, wie das Finanzwesen, die Biotechnologie und die medizinische Forschung, können cloudbasierte LLM-Dienste jedoch potenzielle Betriebs- und Compliance-Risiken bergen. Daher benötigen diese Unternehmen dringend eine Lösung, die es ihnen ermöglicht, LLMs sicher zu betreiben und gleichzeitig ein ausgewogenes Verhältnis zwischen Kosten und Leistung für ihre spezifischen Fälle herzustellen.
Als Reaktion auf die steigende Nachfrage stellt Aetina den AEX-2UA1 vor, einen Edge-Server auf Unternehmensebene, der es Unternehmen ermöglicht, ihr privates LLM-KI-Training und Inferencing vor Ort einzusetzen. So können Modelle mit sensiblen Daten trainiert und sicher genutzt werden, um die Einhaltung strenger Vorschriften zu gewährleisten.
Der AEX-2UA1 basiert auf Technologien von NVIDIA und Intel und unterstützt zwei Double-Deck-GPUs mit NVIDIA NVLink Bridges und einen einzelnen Intel® Xeon 6-Prozessor. Er verbessert die LLM-Trainings- und Inferenzleistung mit direkter GPU-zu-GPU-Verbindung, um leistungsstarke Edge-Computing-Leistung freizusetzen. Darüber hinaus unterstützt der AEX-2UA1 fortschrittliche Netzwerklösungen, darunter NVIDIA BlueField-3 DPUs und SuperNICs, sowie NVIDIA ConnectX-7 NICs. Dies ermöglicht eine effiziente Server-zu-Server- und Server-zu-Speicher-Kommunikation für die parallele Verarbeitung in Edge-KI-Systemen von Unternehmen.
Um dem Platzmangel in Edge-Umgebungen zu begegnen, verfügt der AEX-2UA1 über ein x86-Design mit geringer Tiefe. Dank des Frontzugriffs und des kompakten Formfaktors wird der Platz optimal ausgenutzt, so dass er sich sowohl für den Einsatz in Racks als auch für den Einsatz außerhalb von Racks eignet. Diese Vielseitigkeit ermöglicht die Bereitstellung verschiedener KI-gesteuerter Anwendungen, wo immer sie am Rande benötigt werden.
Darüber hinaus entspricht der AEX-2UA1 der NVIDIA MGX-Architektur, die eine modulare Serverarchitektur für maximale Flexibilität und Vorwärtskompatibilität bietet, einschließlich der Unterstützung von NVIDIA Blackwell-Grafikprozessoren, was eine größere Skalierbarkeit für Unternehmen in der Zukunft bedeutet.
Aetina x Innodisk: Periphere Architekten-Intelligenz
James Su, Direktor für Software R&D bei Aetina, erklärt: „Der AEX-2UA1 markiert nicht nur Aetinas Fortschritte bei der Erweiterung des Produktportfolios, sondern dient auch als ideales Einstiegssystem für Unternehmen, die LLM einsetzen möchten, da er im Vergleich zu marktüblichen GPU-Servern niedrige Einstiegshürden bietet. Mit dem NVIDIA MGX Server, gepaart mit unserer umfassenden Expertise, rationalisieren wir die Entwicklung und den Einsatz von KI-Anwendungen. Das spart wertvolle Ressourcen, beschleunigt die Time-to-Value und versetzt Unternehmen in die Lage, das Potenzial von KI schnell zu nutzen und sich einen Wettbewerbsvorteil zu verschaffen."
Die Einführung des neuen NVIDIA MGX Servers bestätigt die Position von Aetina als treibende Kraft im Bereich der KI-Innovation innerhalb der Innodisk-Gruppe und zeigt die Stärke und Dynamik des Unternehmens, technologische Grenzen zu verschieben. Aetina nutzt die umfassende Erfahrung der Innodisk Group bei der branchenübergreifenden Integration und die Erkenntnisse aus der Betreuung von IPC-Kunden, um innovative Lösungen in praktische Endpunktlösungen umzuwandeln und so die weit verbreitete Einführung von Edge AI in verschiedenen Märkten zu erleichtern.
Darüber hinaus verstärkt die Innodisk Gruppe ihr Engagement für Spitzenleistungen, indem sie die Erweiterung der Produktionskapazitäten durch ein geplantes Produktionszentrum der zweiten Phase voll unterstützt.
Dieser strategische Schritt unterstreicht das Engagement von Aetina und Innodisk, erstklassige KI-Lösungen zu liefern, um nicht nur die Anforderungen des sich entwickelnden Marktes zu erfüllen, sondern auch den Weg für zukünftige Innovationen zu ebnen.
Der SuperEdge NVIDIA MGX Server mit geringer Tiefe wird auf der COMPUTEX 2024 vorgestellt. Besuchen Sie den Stand von Aetina (Stand-Nr. J0110) und erfahren Sie, wie dieser innovative Server die Geschäftsabläufe auf ein neues Niveau heben kann.
Weitere Informationen über Aetina und den SuperEdge NVIDIA MGX Short-Depth Server finden Sie unter https://www.aetina.com/.
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article