AIME G8000 - Multi GPU HPC Rack Server
Der AIME G8000 basiert als Enterprise Deep Learning-Server auf dem Gigabyte G482-Z54 Barebone. Im 4HE-Formfaktor ist er mit bis zu acht der fortschrittlichsten Deep Learning-Beschleuniger bzw. GPUs konfigurierbar. Treten Sie mit mehr als 8 Peta-TensorOps Deep Learning-Leistung ein in den Peta-FLOPS-HPC-Computerbereich: Dual-EPYC-CPU, der neue PCI-4.0-Bus, sowie bis zu 100 GBE Netzwerkkonnektivität und 2 TB Hauptspeicher.
Gebaut, um rund um die Uhr in Ihrem hauseigenen Rechenzentrum oder Co-Location für zuverlässigstes Hochleistungs-Computing zu arbeiten.
Dieses Produkt ist zur Zeit nicht lieferbar.
ReservierenAIME G8000 - Deep-Learning-Server
Wenn Sie einen Server suchen, der auf maximales Deep-Learning-Training, Inferenzleistung und höchste Ansprüche im HPC-Computing spezialisiert ist, haben Sie mit dem AIME G8000 Multi-GPU 4U Rack-Server die optimale Lösung gefunden.
Der AIME G8000 basiert auf dem neuen Gigabyte G482-Z54 Barebone, das von zwei AMD EPYC™ Milan Prozessoren mit jeweils bis zu 64 Kernen betrieben wird - insgesamt liefert dieser Server also eine CPU-Leistung von bis zu 256 parallel rechnenden CPU-Threads.
Das auf multi-GPU-Betrieb ausgelegte Design, mit seiner effizienten Luftstromkühlung, ermöglicht die Verwendung von acht High-End-Double-Slot-GPUs, wie etwa NVIDIA's A100, RTX 3090 Turbo, RTX A6000, Tesla oder Quadro GPUs.
Wählbare GPU-Konfigurationen
Wählen sie für die Konfiguration aus den leistungsfähigsten NVIDIA Deep-Learning GPUs:
Bis zu 8x NVIDIA A100
Nvidia A100 ist das Flaggschiff der Nvidia Ampere-Prozessorgeneration. Mit seinen 6912 CUDA-Kernen, 432 Tensorkernen der dritten Generation und 80 GB HBM2-Speicher mit der höchsten Bandbreite durchbricht eine einzelne A100 GPU schon die Peta-TOPS-Leistungsbarriere. Vier GPUs dieser Art summieren sich somit auf mehr als 1000 teraFLOPS fp32-Leistung.
Bis zu 8x NVIDIA RTX 3090
Die GeForce RTX ™ 3090 basiert auf der NVIDIA Ampere RTX-Architektur der 2. Generation und verdoppelt die AI-Leistung mit 10496 CUDA-Kernen, 328 Tensorkernen der 3. Generation und neuen Streaming-Multiprozessoren. Sie bietet die Leistung die vorher nur von GPUs der Titan Klasse erreicht wurden. Die RTX 3090 verfügt über 24 GB GDDR6X-Speicher.
Bis zu 8x Tesla V100
Die Tesla V100 ist das Flaggschiff der Volta GPU-Prozessorserie, die jede Turing-basierte GPU im Leistungsvergleich schlägt. Mit seinen 640 Tensor-Kernen und 32 GB HBM2-Speicher mit der höchsten Bandbreite war die Tesla V100 die erste verfügbare GPU mit mehr als 100 TeraFLOPS (TFLOPS).
Bis zu 8x NVIDIA RTX A6000
Die NVIDIA RTX A6000 ist das Ampere-basierte Nachfolgemodell der Quadro RTX 6000. Sie verfügt über denselben GPU-Prozessor (GA-102) wie die RTX 3090, allerding sind alle Kerne des GA-102 Prozessors aktiviert. Mit Ihren 10752 CUDA und 336 Tensor-Kernen der 3. Generation übertifft sie damit die RTX 3090. Ausgestattet mit der doppelten Menge an GPU-Speicher, im Vergleich zur Quadro RTX 6000 und der RTX 3090: 48 GB GDDR6 ECC. Die NVIDIA RTX A6000 ist derzeit zweitschnellste erhältliche NVIDIA-GPU, die nur von der NVIDIA A100 übertroffen wird. Sie verfügt über den größten verfügbaren GPU-Speicher und eignet sich bestens für speicherintensive Anwendungen.
Alle angeboten NVIDIA GPUs unterstützen NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT und werden damit von allen gängigen Deep-Learning-Frameworks unterstützt.
Dual-EPYC-CPU-Leistung
Die High-End AMD EPYC Server-CPU arbeitet mit bis zu 64 Kernen und insgesamt 128 Threads pro CPU. Die 128 verfügbaren PCI 4.0-Lanes der AMD EPYC-CPU ermöglichen es, dass alle vier GPUs mit der maximalen Anzahl von PCI Lanes angebunden werden. Hierdurch wird die höchste Datenübertragungsrate zwischen der CPU und den GPUs erreicht.
Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.
Bis zu 16 TB Hochgeschwindigkeits-SSD-Speicher
Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich.
Der AIME G8000 kann mit bis zu zwei wechselbaren U.2 NVMe Triple Level Cell (TLC) SSDs mit einer Kapazität von jeweils bis zu 8 TB konfiguriert werden. Das ergibt eine Gesamtkapazität von 16 TB des schnellsten SSD-Speichers.
Jede der SSDs ist über PCI-4.0-Lanes direkt mit der CPU und dem Hauptspeicher verbunden und erreicht dadurch konstant höchste Lese- und Schreibraten von 3000 MB/s.
Wie im Serverbereich üblich haben die SSDs eine MTBF von 2,000,000 Stunden und 5 Jahre Garantie des Herstellers.
Höchste Konnektivität mit Managment Interface
Zusätzlich zu den standardmäßigen 2x 1 Gbit/s und 1x 10 Gbit/s SFP+ LAN-Ports ist der G8000 mit bis zu 2x 100 Gbit/s (GBE) Netzwerkadaptern für schnellste Verbindung zu NAS-Ressourcen und Big Data-Sammlungen ausgestattet. Nicht nur für den Datenaustausch in einem verteilten Computerverbund ist die höchste verfügbare LAN-Konnektivität ein Muss.
Der AIME G8000 ist über IPMI/BMC (AST2500) vollständig remote verwaltbar, was eine erfolgreiche Integration des AIME G8000 in größere Servercluster ermöglicht.
Optimiert für Multi-GPU-Serveranwendungen
Der AIME G8000 ist energieeffizient und bietet durch redundante Platinum-Netzteile einen ausfallsicheren Langzeitbetrieb. Seine Wärmesteuerungstechnologie ermöglicht einen effizienten Stromverbrauch in Server-Umgebungen.
AIME liefert den G8000 einsatzbereit vorkonfiguriert, optimiert auf Multi-GPU-Dauerleistung wie sie für Deep-Learning Anwendungen benötigt wird. Hierzu gehört auch ein vorinstalliertes Linux-Betriebssystem, mit aktuellsten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und Mxnet, komfortabel verpackt in das AIME ML Container Management Framework.
Beginnen Sie sofort nach dem ersten Booten mit dem Training Ihrer Deep-Learning-Anwendung.
Technische Daten
Type | Rack Server 4HE, 90cm Tiefe |
CPU (konfigurierbar) |
EPYC Milan 2x EPYC 7313 (16 cores, 3.0 / 3.7 GHz) 2x EPYC 7443 (24 cores, 2.85 / 4.0 GHz) 2x EPYC 7543 (32 cores, 2.8 / 3.7 GHz) 2x EPYC 7713 (64 cores, 2.0 / 3.6 GHz) |
RAM | 128 / 256 / 512 / 1024 / 2048 GB ECC Speicher |
GPU Optionen |
2 bis 8x NVIDIA A100 80GB oder 2 bis 8x NVIDIA RTX 3090 24GB oder 2 bis 8x NVIDIA RTX A5000 24GB oder 2 bis 8x NVIDIA RTX A6000 48GB oder 2 bis 8x Tesla V100S 32GB |
Kühlung | CPU und GPUs mit 12 starken Hochleistungslüftern gekühlt > 100000h MTBF |
Speicher | Bis zu 2 x 8TB U.2 NVMe SSD Tripple Level Cell (TLC) Qualität 3000 MB/s lesen, 3000 MB/s schreiben MTBF of 2,000,000 Stunden und 5 Jahre Herstellergarantie |
Netzwerk |
2 x 1 GBit LAN RJ45 1 x IPMI LAN optional: 2 x 10 GBit LAN RJ45 2 x 10 GBit LAN SFP+ 2 x 100 GBE 2x QSFP28 |
USB | 2 x USB 3.0 ports (vorne) |
PSU | 3 x 2200 Watt redundante Leistung 80 PLUS Platinum zertifiziert (94% Effizienz) |
Geräusch-Pegel | 88dBA |
Abmessungen (BxHxT) | 448mm x 176mm x 880mm (4HE)
17.6" x 6.92" x 34.65" |
Betriebsumgebung | Betriebs-Temperatur: 10℃ ~ 35℃
Nicht-Betriebs-Temperatur: -40℃ ~ 70℃ |