Industriepremiere: Huawei stellt mit CloudEngine 16800 ersten Rechenzentrum-Switch für das KI-Zeitalter vor
PEKING, 9. Januar 2019 /PRNewswire/ -- Huawei hat heute im Rahmen seines Launch-Events für Netzwerkprodukte im Frühjahr 2019 unter dem Motto „A CloudEngine Built for the AI Era" den branchenweit ersten Rechenzentrum-Switch für das Zeitalter der künstlichen Intelligenz (KI) präsentiert: CloudEngine 16800. Huawei definiert drei Merkmale von Rechenzentrum-Switches für das KI-Zeitalter: integrierter KI-Chip, 48-Port 400GE Linecard pro Steckplatz und das Potenzial zur Weiterentwicklung für vernetzte selbstfahrende Autos. KI-Technologien finden so auf innovative Weise den Weg in Rechenzentrum-Switches. Durch die flächendeckende Implementierung von KI können Kunden die intelligente Transformation vorantreiben.
Laut Huaweis Global Industry Vision (GIV) 2025 wird sich die Akzeptanzrate für KI-Technologien von 16 % in 2015 bis 2025 auf 86 % erhöhen. Der Einsatz von KI bei der Neugestaltung von Geschäftsmodellen, Entscheidungsfindung und Verbesserung der Kundenerfahrung wird eine treibende Kraft sein. Kevin Hu, President der Huawei Network Product Line, sagte: „Die vollständig vernetzte, intelligente Welt ist keine Zukunftsvision mehr. Rechenzentren werden zum Pulsschlag neuer Infrastrukturen wie 5G und KI. Huawei leistet Pionierarbeit bei der Verschmelzung von KI-Technologie und Rechenzentrum-Switches und transportiert vernetzte Rechenzentren vom Cloud-Zeitalter in das KI-Zeitalter."
Im anstehenden KI-Zeitalter spielt die Netzwerkleistung im Rechenzentrum eine entscheidende Rolle für die KI-Rechenleistung. Sie kann die kommerzielle Durchsetzung von KI-Technologien deutlich verlangsamen. Bei einem herkömmlichen Ethernet führt eine Paketverlustrate von 1‰ dazu, dass die KI-Rechenleistung im Rechenzentrum maximal 50 Prozent erreichen kann. Gleichzeitig geht die Branche davon aus, dass sich das weltweite, jährlich anfallende Datenvolumen von 10 Zettabyte in 2018 bis 2025 auf 180 Zettabyte (180 Millionen Terabyte) erhöhen wird. Bestehende 100GE Rechenzentrum-Netzwerke werden diese prognostizierte Datenflut nicht bewältigen können. Darüber hinaus werden traditionelle manuelle O&M-Methoden an ihre Grenzen stoßen, da die Serverzahl in Rechenzentren weiter ansteigt und Computernetzwerk, Speichernetzwerk und Datennetzwerk miteinander verschmelzen. Aus diesem Grund ist es unerlässlich, dass zur Verbesserung intelligenter O&M-Funktionen innovative Technologien entwickelt und implementiert werden.
„Der für das KI-Zeitalter entwickelte Rechenzentrum-Switch besitzt drei Eigenschaften: einen integrierten KI-Chip, 48-Port 400GE Linecard pro Steckplatz und das Potenzial zur Weiterentwicklung für vernetzte selbstfahrende Autos", so Kevin Hu weiter.
Branchenweit erster Rechenzentrum-Switch mit integriertem KI-Chip ermöglicht KI-Rechenleistung von 100 %
CloudEngine 16800, der branchenweit erste Rechenzentrum-Switch mit der Power eines integrierten hochperformanten KI-Chip, verwendet den innovativen iLossless-Algorithmus, um das Datenverkehrsmodell um automatische Erkennung und Optimierung zu erweitern. Dadurch wird die Latenz verringert und der Durchsatz erhöht – vollkommen ohne Paketverlust. CloudEngine 16800 überwindet die Grenzen der Rechenleistung durch Paketverlust beim traditionellen Ethernet und erhöht die KI-Rechenleistung von 50 Prozent auf 100 Prozent. Außerdem werden die IOPS (Input/Output Operations Per Second) um 30 Prozent gesteigert.
48-Port 400GE Linecard pro Steckplatz mit branchenweit höchster Dichte, um den 5-fach höheren Datenverkehr im KI-Zeitalter zu bewältigen
CloudEngine 16800 verfügt über eine verbesserte Hardware-Switching-Plattform. Mit seiner orthogonalen Architektur überwindet es mehrere technische Hürden wie ultraschnelle Signalübertragung, Wärmeableitung und Stromversorgung. 48-Port 400GE Linecard pro Steckplatz mit branchenweit höchster Dichte und branchenweit größte 768-Port 400GE Switching-Kapazität (das fünffache des Industriestandards) bedeuten Zukunftssicherheit im datenverkehrintensiven KI-Zeitalter. Ein um 50 % geringerer Stromverbrauch reduziert die Umweltbelastung des Systems.
Basis für vernetzte selbstfahrende Autos, sekundenschnelle Fehlererkennung und automatische minutenschnelle Fehlerlokalisierung
CloudEngine 16800 verfügt über einen KI-Chip, der an Randstellen des Netzwerks eingesetzte Geräte deutlich intelligenter macht. Der Switch ist so in der Lage, lokale Inferenz zu implementieren und in Echtzeit schnelle Entscheidungen zu treffen. Mit der lokalen Intelligenz von CloudEngine 16800 und dem zentralisierten Netzwerk-Analyzer FabricInsight werden Fehler von der KI O&M-Architektur in Sekundenschnelle erkannt und in Minutenschnelle automatisch lokalisiert. Vernetzte selbstfahrende Autos werden so schneller zur Realität. Außerdem trägt die Architektur zu einer deutlichen Verbesserung der Flexibilität und Implementierfähigkeit von O&M-Systemen bei.
Leon Wang, Geschäftsführer der Huawei Data Center Network Domain, sagte: „Huawei Rechenzentrum-Switches der Serie CloudEngine sind bereits bei 6000 Kunden erfolgreich im kommerziellen Einsatz und beschleunigen die Digitalisierung in Sektoren wie Finanzen, Internet und Netzbetreiber. Huawei will mit CloudEngine 16800 seinen Kunden dabei helfen, die intelligente Transformation voranzutreiben, ihre Systeme flächendeckend KI-tauglich zu machen und eine vollständig vernetzte und intelligente Welt zu schaffen."
Related Links
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article