AIME A8005P
Multi-GPU HPC Rackserver
Der AIME A8005P basiert auf dem neusten ASUS ESC8000A-E13P Barebone und wird von zwei AMD EPYC™ Turin Prozessoren angetrieben, die jeweils mit CPU bis zu 192 CPU-Kerne konfiguriert werden können, was eine CPU-Leistung von bis zu 768 parallelen CPU-Threads ergibt. Der AIME A80005P kann mit bis zu 8 der fortschrittlichsten und leistungsfähigsten GPUs und Deep-Learning-Beschleuniger bestückt werden: der NVIDIA H200 NVL und der NVIDIA RTX 6000 Pro Blackwell GPU.
Der A8005P ist der ultimative Multi-GPU-Server: Dual EPYC Turin CPUs mit bis zu 3 TB DDR5 Hauptspeicher, bis zu 240 TB NVME SSD-Speicher mit den schnellsten PCIe 5.0 Bus-Geschwindigkeiten und bis zu 400 GBE Netzwerkkonnektivität.
Zuverlässigste HPC Hochleistungs-Computing ausgelegt für den 24/7-Betrieb, entweder in Ihrem Inhouse-Rechenzentrum, in Ihrer Colocation oder als bei uns für sie gehostete Lösung.
AIME A8005P - Der Deep-Learning Trainings- und Inferenz-Server
Der für den Betrieb von mehreren GPUs optimierte Design des AIME A8005P, mit Temperatur geregelten Hochleistungslüfter für alle kritischen Komponenten und dedizierten Lüftungskanälen, ermöglicht den Einsatz von acht High-End-Double-Slot-GPUs der neuesten Generation: NVIDIA H200 NVL, NVIDIA H100 NVL, RTX Pro 6000 Blackwell, NVIDIA L40S, RTX 6000 Ada und RTX 5000 Ada.
Wählbare GPU-Konfiguration
Wählen sie aus den leistungsstärksten NVIDIA-GPUs für Deep Learning und Inferenz von großen Sprachmodellen (LLM) die gewünschte Konfiguration aus:
Bis zu 8x NVIDIA H200 141GB
Die NVIDIA H200 mit 141 GB ist die aktuell leistungsstärkte Deep-Learning-Beschleunigungskarte der Hopper-Generation und ein direkter Nachfolger der H100 80 GB. Die NVIDIA H200 basiert auf dem GH-100-Prozessor in 5-nm-Fertigung mit 16.896 CUDA-Kernen, Tensor-Kernen der vierten Generation und 141 GB HBM3e-Speicher mit Datenübertragungsraten von 4,8 TB/s.
Zusätzlich können bis zu 4x NVIDIA H200 über einen NVLink-Stecker verbunden werden um Daten zwischen den Karten mit einer Datenübertragungsraten von bis zu 900 GB/s auszutauschen.
Bis zu 8x NVIDIA H100 NVL 94GB
Eine aktualisierte Version der NVIDIA Hopper H100 80GB ist die NVIDIA H100 NVL mit einem großen Leistungssprung zu einer A100 der Ampere Generation. Die NVIDIA H100 NVL basiert auf dem GH-100 Prozessor in 5nm Fertigung mit 16.896 CUDA-Kernen, Tensorkernen der vierten Generation und 94 GB HBM3-Speicher mit Datentransferraten bis zu 3,9 TB/s. Eine einzelne NVIDIA H100 NVL Beschleuniger leistet 1,67 FP16 Peta-TOPS. Acht H100 NVL Beschleuniger liefern mehr als 8000 teraFLOPS FP32-Leistung. Die NVIDIA-H100-Generation ist die erste GPU, die PCIe 5.0 unterstützt, was die PCIe Datenübertragungsraten auf bis zu 128 GB/s verdoppelt. Die NVIDIA H100 NVL ist aktuell die effizienteste (Perf/Watt) Deep-Learning Beschleunigerkarte am Markt.
Bis zu 8x NVIDIA RTX Pro 6000 Blackwell Server 96 GB
Die erste GPU der neusten NVIDIAs Generation "Blackwell" ist die RTX Pro 6000 Blackwell Server mit unschlagbaren 24.064 CUDA und 752 Tensor Kerne der 5. Generation.
Die RTX Pro 6000 Blackwell Server Edition ist passiv gekühlt, was dem Server ermöglicht bis zu 8 Stück parallel zu kühlen.
Mit der Erhöhung des GPU-Speichers auf 96 GB GDDR7 Speicher mit einer beeindruckenden Bandbreite von 1.6 TB/s, legt sie neue Maßstäbe beim Rendering und AI GPU-Computing.
Bis zu 4x NVIDIA L40S 48GB
Die NVIDIA L40S basiert auf der neuesten NVIDIA-GPU-Architektur: Ada Lovelace. Sie ist der direkte Nachfolger der RTX A40 und die passiv gekühlte Version der RTX 6000 Ada. Die L40S kombiniert 568 Tensor-Kerne der vierten Generation und 18.176 next-gen CUDA®-Kerne mit 48 GB GDDR6 Grafikspeicher für beispiellose Leistung für Rendering, Grafik und KI.
Bis zu 4x NVIDIA RTX 6000 Ada 48GB
Die RTX™ 6000 Ada basiert auf der neuesten NVIDIA-GPU-Architektur: Ada Lovelace. Sie ist der direkte Nachfolger der RTX A6000 und der Quadro RTX 6000. Die RTX 6000 Ada kombiniert 568 Tensor-Kerne der vierten Generation und 18.176 next-gen CUDA®-Kerne mit 48 GB Grafikspeicher für beispiellose Leistung für Rendering, Grafik und KI.
Bis zu 4x NVIDIA RTX 5000 Ada 32GB
Die RTX ™ 5000 Ada basiert auf der neuesten NVIDIA GPU-Architektur: Ada Lovelace. Sie ist die direkte Nachfolgerin der RTX A5500. Die RTX 5000 Ada kombiniert 400 Tensor Cores der vierten Generation und 12.800 CUDA® Kerne der nächsten Generation mit 32 GB Grafikspeicher für eine überzeugende Rendering-, KI-, Grafik- und Rechenleistung.
Alle NVIDIA-GPUs werden von NVIDIAs CUDA-X AI SDK unterstützt, einschließlich cuDNN und TensorRT und sind damit kompatibel zu allen gängigen Deep-Learning-Frameworks.
Dual EPYC Turin CPU Leistung
Die neuesten Dual AMD EPYC Turin Server-CPUs mit Unterstützung für DDR5 5600 MHz RAM und PCIe 5.0 bieten bis zu 2 x 196 CPU-Kerne mit insgesamt 768 CPU-Threads. Unglaubliche CPU-Leistung mit einem ungeschlagenen Preis-Leistungs-Verhältnis.
Die verfügbaren 2 x 128 PCIe 5.0 Lanes der AMD EPYC CPU ermöglichen die höchsten Verbindungs- und Datenübertragungsraten zwischen der CPU und den GPUs und stellen sicher, dass alle GPUs mit voller x16 PCIe 5.0-Bandbreite verbunden sind.
Eine hohe Anzahl verfügbarer CPU-Kerne kann die Leistung erheblich verbessern, wenn die CPUs für die Vorverarbeitung und die Datenaufbereitung eingesetzt werden, um die GPUs optimal mit Arbeit zu versorgen.
Bis zu 8x 30 TB Direct PCIe 5.0 NVMe SSD Speicher
Deep Learning ist meist mit einer großen Menge an zu verarbeitenden und zu speichernden Daten verbunden. Hohe Durchsatzraten und schnelle Zugriffszeiten auf die Daten sind für schnelle Bearbeitungszeiten entscheidend.
Das AIME A8005P kann mit bis zu acht austauschbaren U.3 PCIe 5.0 NVMe Triple-Level-Cell (TLC) SSDs mit einer Kapazität von bis zu 30,36 TB pro SSD konfiguriert werden, was zu einer Gesamtkapazität von 240 TB des schnellsten NVMe-SSD-Speichers führt.
Da jede der SSDs über PCIe 5.0-Lanes mit dem Hauptspeicher verbunden ist, erreichen sie konsistente hohe Lese- und Schreibraten von mehr als 5000 MB/s.
Wie üblich im Serverbereich haben die SSDs eine MTBF von 2.500.000 Stunden bei 1 DWPD (Disk Write per Day) und eine 5-jährige Herstellergarantie.
Optionales Hardware RAID
Falls ein Hardware-RAID-Speicher erforderlich ist, bietet das A8005P die Option, sechs seiner Laufwerksschächte mit einer zuverlässigen Hardware-RAID-Controller zu nutzen. Bis zu 120 TB schnellster NVMe-RAID-SSD-Speicher mit RAID-Leveln 0 / 1 / 5 / 10 und 50 sind möglich.
Hohe Konnektivität und Management-Interface
Das A8005P ist mit 2x 10-Gbit/s-RJ45+ LAN-Ports Onboard ausgestattet und kann mit Netzwerkadaptern bis zu 400 Gbit/s (GBE) für die höchste Netzwerkübertragungsraten zu NAS-Ressourcen und Big-Data-Sammlungen ausgestattet werden. Auch für den Datenaustausch in einem verteilten Rechencluster ist die höchste verfügbare LAN-Konnektivität ein Muss.
Das AIME A8005P ist vollständig über ASMB12-iKVM IPMI/BMC, angetrieben von einem AST2600 BMC, remote verwaltbar, was eine erfolgreiche Integration des AIME A8005P in größere Servercluster ermöglicht.
Optimiert für Multi-GPU Server Anwendungen
Der AIME A8005P bietet Energieeffizienz mit redundanten Netzteilen der Titanium Effizienz-Klasse, welche einen langfristigen und ausfallsicheren Betrieb ermöglichen. Seine thermische Lüfterregelung sorgt für einen effizienteren Stromnutzung und optimierte Kühlleistung.
Eingestellt, konfiguriert und optimiert für die perfekte Multi-GPU- und höchste Deep-Learning-Leistung durch AIME.
Der AIME A8005P kommt mit vorinstalliertem Ubuntu-Betriebssystem, mit den neuesten Treibern und optimiert für die Frameworks TensorFlow und PyTorch. Nach dem Hochfahren sofort einsatzbereit, um Ihre Deep-Learning-Anwendungen zu beschleunigen.
Technische Details AIME A8005P
Typ | Rack Server 4HE, 90cm Tiefe |
CPU (konfigurierbar) |
EPYC Turin 2x EPYC 9135 (16 cores, Turin, 3.65 / 4.30 GHz) 2x EPYC 9255 (24 cores, Turin, 3.20 / 4.30 GHz) 2x EPYC 9355 (32 cores, Turin, 3.55 / 4.40 GHz) 2x EPYC 9455 (48 cores, Turin, 3.15 / 4.40 GHz) 2x EPYC 9555 (64 cores, Turin, 3.20 / 4.40 GHz) 2x EPYC 9655 (96 cores, Turin, 2.60 / 4.50 GHz) 2x EPYC 9755 (128 cores, Turin, 2.70 / 4.10 GHz) 2x EPYC 9845 (160 cores, Turin, 2.10 / 3.70 GHz) 2x EPYC 9965 (192 cores, Turin, 2.25 / 3.70 GHz) |
RAM | 256 / 512 / 1024 / 1536 / 2048 / 2304 / 3072 GB DDR5 5600 MHz ECC Speicher |
GPU Optionen |
1 to 8x NVIDIA H200 NVL 141GB oder 1 to 8x NVIDIA H100 NVL 94GB oder 1 to 8x NVIDIA RTX PRO 6000 Blackwell 96GB oder 1 to 8x NVIDIA RTX L40S 48GB oder 1 to 8x NVIDIA RTX 6000 Ada 48GB oder 1 to 8x NVIDIA RTX 5000 Ada 32GB oder 1 to 8x NVIDIA RTX 4500 Ada 24GB |
Kühlung | Die GPUs werden mit einem Luftstrom gekühlt, der von 8 temperaturgesteuerten Hochleistungslüftern erzeugt wird (> 100000h MTBF) System-Lüfter: CPUs und Mainboard werden mit einem Luftstrom gekühlt, der von 5 unabhängigen, temperaturgesteuerten Hochleistungslüftern bereitgestellt wird (> 100000h MTBF) |
Storage |
Bis zu 4 TB built-in M.2 NVMe PCIe 5.0 SSD (optional) Bis zu 8x 30.72 TB U.3 NVMe PCIe 5.0 SSD Tripple Level Cell (TLC) Qualität 10000 MB/s lesen, 4900 MB/s schreiben MTBF von 2,500,000 Stunden und 5 Jahre Herstellergarantie mit 1 DWPD Optionales Broadcom Hardware RAID: Bis zu 6x SSD 7.68 TB SATA RAID 0/1/5/10 oder Bis zu 6x SSD 3.84 TB NVMe RAID 0/1/5/10 oder Bis zu 6x SSD 7.68 TB NVMe RAID 0/1/5/10 oder Bis zu 6x SSD 15.36 TB NVMe RAID 0/1/5/10 |
Netzwerk |
Onboard 1x IPMI Managment LAN 2x 10 GBE LAN RJ45 Optional 2x 10 GBE LAN SFP+ oder 2x 25 GBE LAN SFP28 oder 1x 100 GBE QSFP28 (ConnectX-5) oder 2x 100 GBE QSFP28 (ConnectX-5) oder 1x 200 GBE QSFP56 (ConnectX-6) oder 1x 400 GBE OSFP (ConnectX-7) |
USB |
2x USB 3.2 Gen 1 Ports (Front) 1x USB 3.2 Gen 1 Ports (Hinten) |
Management Lösung |
Onboard ASMB12-iKVM Mini DisplayPort |
Netzteile | 3+1 3200W redundant Leistung 80 PLUS Titanium zertifiziert (96% Effizienz) |
Geräusch-Pegel | 92 dBA |
Abmessungen (BxHxT) | 440mm x 175mm (4HE) x 800mm
17.3" x 6.9" x 31.5" |
Betriebsumgebung | Betriebs-Temperatur: 10℃ ~ 35℃
Nicht-Betriebs-Temperatur: -40℃ ~ 60℃ |