• AIME R400 - 4 GPU Rack Server
  • AIME R400 - 4 GPU Rack Server
  • AIME R400 Top View
  • AIME R400 Front View

AIME R400 - 4 GPU Rack Server

Ihr Deep-Learning-Server für den 24/7-Einsatz in Ihrem Inhouse-Rechenzentrum oder Ihrer Co-Location. Mit 4 high-end KI-optimierten GPUs erhalten sie die höchste Deep-Learning-Leistung, die derzeit zu erwerben ist: Mehr als 500 Billionen Tensor FLOPS und bis zu 64 GB GPU Speicher.

Dieses Produkt ist zur Zeit nicht lieferbar.

Reservieren

AIME R400 - Deep Learning Server

Für Deep-Learning-Anwendungen wird ein neuartiger Typ von Server benötigt. Der AIME R400 Server ist bereit für diese Aufgabe: Mit seiner Multi-GPU-Architektur erreicht er maximale Deep-Learning-Trainings und -Inferenzleistung.

Mit seiner flüssigkeitsgekühlten CPU und einer lüftergestützten GPU-Kühlung, die auf hohen Luftdurchsatz optimiert ist, hält der AIME R400 auch unter Volllast im 24/7-Dauerbetrieb seine höchste Leistung. Sechs aufeinander abgestimmt Hochleistungslüfter erzeugen einen kühlenden Luftstrom durch das System, der die GPUs kühlt und vor Überhitzung schützt. Diese Konfiguration hält das System kühler, leistungsfähiger und ist insgesamt langlebiger, als ein System, das mit einer Ansammlung von vielen kleinen Lüftern arbeitet.

Wählbare Quad GPU Konfigurationen

Wählen sie für die Konfiguration aus den leistungsfähigsten NVIDIA Deep-Learning GPUs:

4 X NVIDIA RTX 2080TI

Jede NVIDIA RTX 2080 TI trainiert AI-Modelle mit 544 NVIDIA Turing mixed-precision Tensor Cores, die eine AI-Leistung von 107 Terra Tensor FLOPS liefern und bietet 11 GB ultra-schnellen GDDR6 Speicher.

Mit dem AIME R400 erhalten Sie die kombinierte Leistung von vier NVIDIA RTX 2080TI und erreichen damit eine AI-Leistung von mehr als 400 Billionen Tensor-Operationen pro Sekunde.

4 X Titan RTX

Angetrieben durch die preisgekrönte Turing™-Architektur, liefert die Titan RTX eine Leistung von 130 Tensor TFLOPs, 576 Tensor Cores und 24 GB ultra-schnellen GDDR6 Speicher.

Mit dem AIME R400 erhalten Sie die kombinierte Leistung von vier Titan RTX und erreichen damit eine AI-Leistung von mehr als 500 Billionen Tensor-Operationen pro Sekunde.

4 X Tesla V100

Mit 640 Tensor Cores, ist der Tesla V100 der weltweit erste Grafikprozessor, der bei der Deep-Learning-Leistung die 100-TOPS-Schallmauer durchbricht.

Ausgestattet mit 16 GB HBM2 Speicher ist die Tesla V100 für die anspruchvollsten Deep-Learning-Anwendungen ausgelegt.

Alle angeboten NVIDIA GPUs werden von NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT angetrieben und werden damit in alle gängige Deep-Learning-Frameworks unterstützt.

Threadripping CPU-Leistung

Die High-End AMD Threadripper-CPU für Workstations und Server arbeitet mit bis zu 32 Cores und insgesamt 64 Threads pro CPU. Die verfügbaren 64 PCI 3.0-Lanes der AMD Threadripper-CPU ermöglichen höchste Datenübertragungsraten zwischen der CPU und den GPUs.

Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.

Bis zu 8 TB High-Speed-SSD-Speicher

Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich. Der AIME R400 kann mit zwei NVMe-SSDs konfiguriert werden, die über PCI-Lanes direkt mit der CPU und dem Hauptspeicher verbunden sind. Wir bieten die folgenden drei zu konfigurierenden SSD-Klassen an:

  • QLC-Typ: Hohe Leseraten, durchschnittliche Schreibgeschwindigkeit - am besten zum Lesen von statischen Datenbibliotheken oder Archiven geeignet
  • TLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für schnellen Lese- / Schreibzugriff auf Dateien
  • MLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für Hochleistungsdatenbanken, Datenstreaming und Virtualisierung

Aufeinander abgestimmte Komponenten

All unsere Komponenten wurden aufgrund ihrer Energieeffizienz, Haltbarkeit, Kompatibilität und hohen Leistung ausgewählt. Sie sind perfekt aufeinander abgestimmt, so dass keine Leistungsengpässe entstehen. Wir optimieren unsere Hardware im Hinblick auf Kosten pro Leistung, ohne Kompromisse bei der Langlebigkeit und Zuverlässigkeit einzugehen.

Für Deep-Learning-Anwendungen entwickelt

Der AIME R400 wurde zuerst für unsere eigenen Anforderungen für Deep-Learning-Anwendungen entwickelt und hat sich aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und dem Aufbau von PC-Hardware entwickelt.

Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert und sind mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und Mxnet vorkonfiguriert. Loggen Sie sich direkt nach dem Auspacken ein und starten Sie sofort mit Ihrem bevorzugten Deep-Learning-Framework mit der Entwicklung.

Technische Daten

Typ Rack Server 6HE, 45cm Tiefe
CPU (konfigurierbar) Threadripper 1920X (12 cores, 4 GHz)
Threadripper 1950X (16 cores, 4 GHz)
Threadripper 2920X (12 cores, 4.3 GHz)
Threadripper 2950X (16 cores, 4.3 GHz)
Threadripper 2970X (24 cores, 4.2 GHz)
Threadripper 2990X (32 cores, 4.2 GHz)
RAM 64 or 128 GB
ECC optional
GPU Optionen 4x NVIDIA RTX 2080TI oder
4x NVIDIA RTX Titan oder
4x NVIDIA Tesla V100
Kühlung CPU flüssigkeitsgekühlt
GPUs mit starkem Luftstrom gekühlt
Hochleistungslüfter > 100000h MTBF
Speicher Bis zu 2 X 2TB NVMe SSD
Konfigurations-Optionen:
QLC: 1500 MB/s read, 1000 MB/s write
TLC: 3500 MB/s read, 1750 MB/s, write
MLC: 3500 MB/s read, 2700 MB/s write
Netzwerk 2 x 1000 MBit LAN
USB 2 x USB 3.1 Gen 1 ports (front)
1 x USB Type-C™ USB 3.1 Gen 2
1 x USB 3.1 Gen 2 Type-A
6 x USB 3.1 Gen 1
PSU 2000 Watt Leistung
80 PLUS Platinum certified (94% efficiency)
Geräusch-Pegel < 50dBA
Abmessungen (BxHxT) 440 x 265 x 430 mm

AIME R400 featuered technologies