Taipei (OTS) – MSI, ein weltweit führender Anbieter von
Hochleistungsserverlösungen,
ist auf der COMPUTEX 2025 (Stand #J0506) mit seinem bisher
umfassendsten Angebot wieder mit von der Partie. MSI präsentiert
vollständig integrierte EIA-, OCP ORv3- und NVIDIA MGX-Racks, DC-MHS-
basierte Core-Compute-Server und die neue NVIDIA DGX Station. Dabei
geht es um Integration auf Rack-Ebene, modulare Cloud-
Infrastrukturen, KI-optimierte GPU-Systeme und Server-Plattformen für
Unternehmen. Zusammen unterstreichen diese Systeme die wachsende
Fähigkeit von MSI, einsatzbereite, auf den Workload abgestimmte
Infrastrukturen für Hyperscale-, Cloud- und Unternehmensumgebungen zu
liefern.
„Die Zukunft der Dateninfrastruktur ist modular, offen und
Workload-optimiert“, sagt Danny Hsu, Geschäftsführer von Enterprise
Platform Solutions von MSI . „Auf der COMPUTEX 2025 zeigen wir, wie
MSI sich zu einem Full-Stack-Server-Anbieter entwickelt und
integrierte Plattformen bereitstellt, die unseren Kunden helfen, KI-,
Cloud- und Enterprise-Implementierungen mit größerer Effizienz und
Flexibilität zu skalieren.“
Full-Rack-Integration von Cloud- bis KI-Rechenzentren MSI
demonstriert seine Kompetenz bei der Rack-Integration mit vollständig
konfigurierten EIA 19 Zoll, OCP ORv3 21 Zoll und KI-Racks, die von
NVIDIA MGX angetrieben werden und für den Betrieb moderner
Infrastrukturen, von Cloud-nativen Berechnungen bis hin zu KI-
optimierten Implementierungen, entwickelt wurden. Jedes Rack ist
vorintegriert und thermisch optimiert, einsatzbereit und auf
bestimmte Workloads abgestimmt. Gemeinsam unterstreichen sie die
Fähigkeit von MSI, eine vollständige, für die Arbeitslast optimierte
Infrastruktur vom Entwurf bis zur Bereitstellung zu liefern.
– Das EIA-Rack bietet eine hohe Rechendichte für private Cloud- und
Virtualisierungsumgebungen und integriert die Kerninfrastruktur in
ein Standard-19-Zoll-Format.
– Das OCP ORv3-Rack verfügt über ein offenes 21-Zoll-Gehäuse, das
eine höhere Rechen- und Speicherdichte, eine effiziente 48-V-
Stromversorgung und ein OpenBMC-kompatibles Management ermöglicht –
ideal für Hyperscale- und Software-definierte Rechenzentren.
– Das Enterprise AI Rack mit NVIDIA MGX, das auf der NVIDIA
Enterprise Reference Architecture aufbaut, ermöglicht eine
skalierbare GPU-Infrastruktur für KI und HPC. Mit modularen Einheiten
und einem durchsatzstarken Netzwerk auf Basis von NVIDIA Spectrum™-X
unterstützt es skalierbare Multi-Node-Einheiten, die für umfangreiche
Trainings-, Inferenz- und Hybrid-Workloads optimiert sind.
Core-Compute- und Open-Compute-Server für modulare Cloud-
Infrastruktur MSI erweitert sein Core-Compute-Angebot um sechs DC-MHS
-Server mit AMD EPYC 9005 Series- und Intel Xeon 6-Prozessoren in
2U4N- und 2U2N-Konfigurationen. Das Portfolio wurde für skalierbare
Cloud-Implementierungen entwickelt und umfasst Nodes mit hoher Dichte
und Flüssigkeits- oder Luftkühlung sowie kompakte Systeme, die für
Energie- und Raumeffizienz optimiert sind. Mit Unterstützung für OCP
DC-SCM, PCIe 5.0 und DDR5 DRAM ermöglichen diese Server eine
modulare, plattformübergreifende Integration und vereinfachte
Verwaltung in privaten, hybriden und Edge-Cloud-Umgebungen.
Um die Flexibilität des Open-Compute-Einsatzes weiter zu erhöhen,
stellt MSI den CD281-S4051-X2 vor, einen 2OU 2-Node ORv3 Open-Compute
-Server auf Basis der DC-MHS-Architektur. Er ist für hyperskalierte
Cloud-Infrastrukturen optimiert, unterstützt einen einzelnen AMD EPYC
9005-Prozessor pro Node, bietet eine hohe Speicherdichte mit zwölf
E3.S NVMe-Einschüben pro Node und integriert eine effiziente 48-V-
Stromversorgung sowie OpenBMC-kompatibles Management. Damit ist er
ideal für softwaredefinierte und energiebewusste Cloud-Umgebungen
geeignet.
AMD EPYC 9005 Serie Prozessor-basierte Plattform für dichte
Virtualisierung und Scale-Out Workloads
– CD270-S4051-X4 (Flüssigkeitskühlung) Ein flüssigkeitsgekühlter 2U 4
-Node Server mit bis zu 500W TDP. Jeder Node verfügt über 12 DDR5-
DIMM-Steckplätze und 2 U.2-NVMe-Laufwerkseinschübe, ideal für dichte
Rechenleistung in thermisch eingeschränkten Cloud-Bereitstellungen.
– CD270-S4051-X4 (Luftkühlung) Dieses luftgekühlte 2U 4-Node-System
unterstützt bis zu 400W TDP und bietet energieeffiziente
Rechenleistung mit 12 DDR5 DIMM-Steckplätzen und 3 U.2 NVMe-
Einschüben pro Node. Entwickelt für Virtualisierung, Container-
Hosting und private Cloud-Cluster.
– CD270-S4051-X2 Ein 2U 2-Node-Server, der für Platzersparnis und
Rechendichte optimiert ist. Jeder Node verfügt über 12 DDR5-DIMM-
Steckplätze und 6 U.2-NVMe-Einschübe, wodurch er sich für Allzweck-
Virtualisierungs- und Edge-Cloud-Nodes eignet.
Plattform auf Basis des Intel Xeon 6-Prozessors für
containerisierte und allgemeine Cloud-Dienste
– CD270-S3061-X4 Ein 2U 4-Node Intel Xeon 6700/6500 Server mit 16
DDR5 DIMM Steckplätzen und 3 U.2 NVMe Einschüben pro Node. Ideal für
containerisierte Dienste und gemischte Cloud-Workloads, die eine
ausgewogene Rechendichte erfordern.
– CD270-S3061-X2 Dieses kompakte 2U-2-Node-System mit Intel Xeon
6700/6500 verfügt über 16 DDR5-DIMM-Steckplätze und 6 U.2-NVMe-
Einschübe pro Node und bietet leistungsstarke Rechen- und
Speicherfunktionen für Kerninfrastrukturen und skalierbare Cloud-
Dienste.
– CD270-S3071-X2 Ein 2U 2-Node Intel Xeon 6900 System, das für I/O-
lastige Workloads entwickelt wurde, mit 12 DDR5 DIMM Steckplätzen und
6 U.2 Einschüben pro Node. Geeignet für speicherzentrierte
Anwendungen und datenintensive Anwendungen in der Cloud.
KI-Plattformen mit NVIDIA MGX & DGX Station für die KI-
Bereitstellung MSI präsentiert ein umfassendes Angebot an KI-fähigen
Plattformen, darunter NVIDIA MGX-basierte Server und die auf der
NVIDIA Grace- und Blackwell-Architektur basierende DGX Station. Die
MGX-Reihe umfasst 4U- und 2U-Formfaktoren, die für KI-Training und –
Inferenz mit hoher Dichte optimiert sind, während die DGX Station
Leistung der Rechenzentrumsklasse in einem Desktop-Gehäuse für die
Modellentwicklung vor Ort und den Einsatz von Edge-KI bietet.
KI-Plattformen mit NVIDIA MGX
– CG480-S5063 (Intel) / CG480-S6053 (AMD) Der 4U MGX GPU Server ist
in zwei CPU-Konfigurationen erhältlich: CG480-S5063 mit zwei Intel
Xeon 6700/6500 Prozessoren und CG480-S6053 mit zwei AMD EPYC
Prozessoren der 9005 Serie, die Flexibilität über verschiedene CPU-
Ökosysteme hinweg bieten. Beide Systeme unterstützen bis zu 8 FHFL
Dual-Width PCIe 5.0 GPUs in luftgekühlten Rechenzentrumsumgebungen
und sind damit ideal für Deep Learning Training, generative KI und
Inferencing mit hohem Durchsatz. Der Intel-basierte CG480-S5063
verfügt über 32 DDR5-DIMM-Steckplätze und unterstützt bis zu 20 E1.S-
NVMe-Einschübe an der Vorderseite, ideal für speicher- und I/O-
intensive Deep-Learning-Pipelines, einschließlich großer LLM-
Workloads, NVIDIA OVX™ und Digital-Twin-Simulationen.
– CG290-S3063 Ein kompakter 2U-MGX-Server mit einem einzelnen Intel
Xeon 6700/6500-Prozessor, der 16 DDR5-DIMM-Steckplätze und 4 FHFL-GPU
-Steckplätze mit doppelter Breite unterstützt. Er wurde für Edge
Inferencing und leichtes KI-Training entwickelt und eignet sich für
platzbeschränkte Implementierungen, bei denen Inferenzlatenz und
Energieeffizienz entscheidend sind.
DGX Station
Die CT60-S8060 ist eine leistungsstarke KI-Station, die auf dem
NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip basiert und eine
KI-Leistung von bis zu 20 PFLOPS sowie 784 GB Unified Memory bietet.
Außerdem verfügt sie über den NVIDIA ConnectX-8 SuperNIC, der ein
Netzwerk mit bis zu 800 Gb/s für Hochgeschwindigkeitsdatenübertragung
und Skalierung auf mehrere Nodes ermöglicht. Das System wurde für das
Training und die Inferenz von Modellen vor Ort entwickelt,
unterstützt Mehrbenutzer-Workloads und kann als eigenständige KI-
Workstation oder als zentrale Rechenressource für F&E-Teams
eingesetzt werden.
Foto –
https://mma.prnewswire.com/media/2688106/From_Rack_Integration_to_AI-
_and_Cloud_Systems_MSI_Debuts_Full_Spectrum_Server_Portfolio_at_COMP-
UTEX.jpg
View original content: https://www.prnewswire.com/news-
releases/von-rack-integration-bis-zu-ki–und-cloud-systemen-msi-
stellt-auf-der-computex-2025-ein-umfassendes-server-portfolio-vor-
302458845.html