Industriepremiere: Huawei stellt mit CloudEngine 16800 ersten Rechenzentrum-Switch für das KI-Zeitalter vor

Huawei hat heute im Rahmen seines
Launch-Events für Netzwerkprodukte im Frühjahr 2019 unter dem Motto
„A CloudEngine Built for the AI Era“ den branchenweit ersten
Rechenzentrum-Switch für das Zeitalter der künstlichen Intelligenz
(KI) präsentiert: CloudEngine 16800. Huawei definiert drei Merkmale
von Rechenzentrum-Switches für das KI-Zeitalter: integrierter
KI-Chip, 48-Port 400GE Linecard pro Steckplatz und das Potenzial zur
Weiterentwicklung für vernetzte selbstfahrende Autos. KI-Technologien
finden so auf innovative Weise den Weg in Rechenzentrum-Switches.
Durch die flächendeckende Implementierung von KI können Kunden die
intelligente Transformation vorantreiben.

Laut Huaweis Global Industry Vision (GIV) 2025 wird sich die
Akzeptanzrate für KI-Technologien von 16 % in 2015 bis 2025 auf 86 %
erhöhen. Der Einsatz von KI bei der Neugestaltung von
Geschäftsmodellen, Entscheidungsfindung und Verbesserung der
Kundenerfahrung wird eine treibende Kraft sein. Kevin Hu, President
der Huawei Network Product Line, sagte: „Die vollständig vernetzte,
intelligente Welt ist keine Zukunftsvision mehr. Rechenzentren werden
zum Pulsschlag neuer Infrastrukturen wie 5G und KI. Huawei leistet
Pionierarbeit bei der Verschmelzung von KI-Technologie und
Rechenzentrum-Switches und transportiert vernetzte Rechenzentren vom
Cloud-Zeitalter in das KI-Zeitalter.“

Im anstehenden KI-Zeitalter spielt die Netzwerkleistung im
Rechenzentrum eine entscheidende Rolle für die KI-Rechenleistung. Sie
kann die kommerzielle Durchsetzung von KI-Technologien deutlich
verlangsamen. Bei einem herkömmlichen Ethernet führt eine
Paketverlustrate von 1? dazu, dass die KI-Rechenleistung im
Rechenzentrum maximal 50 Prozent erreichen kann. Gleichzeitig geht
die Branche davon aus, dass sich das weltweite, jährlich anfallende
Datenvolumen von 10 Zettabyte in 2018 bis 2025 auf 180 Zettabyte (180
Millionen Terabyte) erhöhen wird. Bestehende 100GE
Rechenzentrum-Netzwerke werden diese prognostizierte Datenflut nicht
bewältigen können. Darüber hinaus werden traditionelle manuelle
O&M-Methoden an ihre Grenzen stoßen, da die Serverzahl in
Rechenzentren weiter ansteigt und Computernetzwerk, Speichernetzwerk
und Datennetzwerk miteinander verschmelzen. Aus diesem Grund ist es
unerlässlich, dass zur Verbesserung intelligenter O&M-Funktionen
innovative Technologien entwickelt und implementiert werden.

„Der für das KI-Zeitalter entwickelte Rechenzentrum-Switch besitzt
drei Eigenschaften: einen integrierten KI-Chip, 48-Port 400GE
Linecard pro Steckplatz und das Potenzial zur Weiterentwicklung für
vernetzte selbstfahrende Autos“, so Kevin Hu weiter.

Branchenweit erster Rechenzentrum-Switch mit integriertem KI-Chip
ermöglicht KI-Rechenleistung von 100 %

CloudEngine 16800, der branchenweit erste Rechenzentrum-Switch mit
der Power eines integrierten hochperformanten KI-Chip, verwendet den
innovativen iLossless-Algorithmus, um das Datenverkehrsmodell um
automatische Erkennung und Optimierung zu erweitern. Dadurch wird die
Latenz verringert und der Durchsatz erhöht – vollkommen ohne
Paketverlust. CloudEngine 16800 überwindet die Grenzen der
Rechenleistung durch Paketverlust beim traditionellen Ethernet und
erhöht die KI-Rechenleistung von 50 Prozent auf 100 Prozent. Außerdem
werden die IOPS (Input/Output Operations Per Second) um 30 Prozent
gesteigert.

48-Port 400GE Linecard pro Steckplatz mit branchenweit höchster
Dichte, um den 5-fach höheren Datenverkehr im KI-Zeitalter zu
bewältigen

CloudEngine 16800 verfügt über eine verbesserte
Hardware-Switching-Plattform. Mit seiner orthogonalen Architektur
überwindet es mehrere technische Hürden wie ultraschnelle
Signalübertragung, Wärmeableitung und Stromversorgung. 48-Port 400GE
Linecard pro Steckplatz mit branchenweit höchster Dichte und
branchenweit größte 768-Port 400GE Switching-Kapazität (das fünffache
des Industriestandards) bedeuten Zukunftssicherheit im
datenverkehrintensiven KI-Zeitalter. Ein um 50 % geringerer
Stromverbrauch reduziert die Umweltbelastung des Systems.

Basis für vernetzte selbstfahrende Autos, sekundenschnelle
Fehlererkennung und automatische minutenschnelle Fehlerlokalisierung

CloudEngine 16800 verfügt über einen KI-Chip, der an Randstellen
des Netzwerks eingesetzte Geräte deutlich intelligenter macht. Der
Switch ist so in der Lage, lokale Inferenz zu implementieren und in
Echtzeit schnelle Entscheidungen zu treffen. Mit der lokalen
Intelligenz von CloudEngine 16800 und dem zentralisierten
Netzwerk-Analyzer FabricInsight werden Fehler von der KI
O&M-Architektur in Sekundenschnelle erkannt und in Minutenschnelle
automatisch lokalisiert. Vernetzte selbstfahrende Autos werden so
schneller zur Realität. Außerdem trägt die Architektur zu einer
deutlichen Verbesserung der Flexibilität und Implementierfähigkeit
von O&M-Systemen bei.

Leon Wang, Geschäftsführer der Huawei Data Center Network Domain,
sagte: „Huawei Rechenzentrum-Switches der Serie CloudEngine sind
bereits bei 6000 Kunden erfolgreich im kommerziellen Einsatz und
beschleunigen die Digitalisierung in Sektoren wie Finanzen, Internet
und Netzbetreiber. Huawei will mit CloudEngine 16800 seinen Kunden
dabei helfen, die intelligente Transformation voranzutreiben, ihre
Systeme flächendeckend KI-tauglich zu machen und eine vollständig
vernetzte und intelligente Welt zu schaffen.“

Pressekontakt:
Rachelle
86-755-89247590
xurui69@huawei.com

Original-Content von: Huawei, übermittelt durch news aktuell