AIME R400 - 4 GPU Rack Server
Ihr Deep-Learning-Server für den 24/7-Einsatz in Ihrem Inhouse-Rechenzentrum oder Ihrer Co-Location. Mit 4 high-end KI-optimierten GPUs erhalten sie die höchste Deep-Learning-Leistung, die derzeit zu erwerben ist: Mehr als 500 Billionen Tensor FLOPS und bis zu 64 GB GPU Speicher.
Dieses Produkt ist zur Zeit nicht lieferbar.
ReservierenAIME R400 - Deep Learning Server
Für Deep-Learning-Anwendungen wird ein neuartiger Typ von Server benötigt. Der AIME R400 Server ist bereit für diese Aufgabe: Mit seiner Multi-GPU-Architektur erreicht er maximale Deep-Learning-Trainings und -Inferenzleistung.
Mit seiner flüssigkeitsgekühlten CPU und einer lüftergestützten GPU-Kühlung, die auf hohen Luftdurchsatz optimiert ist, hält der AIME R400 auch unter Volllast im 24/7-Dauerbetrieb seine höchste Leistung. Sechs aufeinander abgestimmt Hochleistungslüfter erzeugen einen kühlenden Luftstrom durch das System, der die GPUs kühlt und vor Überhitzung schützt. Diese Konfiguration hält das System kühler, leistungsfähiger und ist insgesamt langlebiger, als ein System, das mit einer Ansammlung von vielen kleinen Lüftern arbeitet.
Wählbare Quad GPU Konfigurationen
Wählen sie für die Konfiguration aus den leistungsfähigsten NVIDIA Deep-Learning GPUs:
4 X NVIDIA RTX 2080TI
Jede NVIDIA RTX 2080 TI trainiert AI-Modelle mit 544 NVIDIA Turing mixed-precision Tensor Cores, die eine AI-Leistung von 107 Terra Tensor FLOPS liefern und bietet 11 GB ultra-schnellen GDDR6 Speicher.
Mit dem AIME R400 erhalten Sie die kombinierte Leistung von vier NVIDIA RTX 2080TI und erreichen damit eine AI-Leistung von mehr als 400 Billionen Tensor-Operationen pro Sekunde.
4 X Titan RTX
Angetrieben durch die preisgekrönte Turing™-Architektur, liefert die Titan RTX eine Leistung von 130 Tensor TFLOPs, 576 Tensor Cores und 24 GB ultra-schnellen GDDR6 Speicher.
Mit dem AIME R400 erhalten Sie die kombinierte Leistung von vier Titan RTX und erreichen damit eine AI-Leistung von mehr als 500 Billionen Tensor-Operationen pro Sekunde.
4 X Tesla V100
Mit 640 Tensor Cores, ist der Tesla V100 der weltweit erste Grafikprozessor, der bei der Deep-Learning-Leistung die 100-TOPS-Schallmauer durchbricht.
Ausgestattet mit 16 GB HBM2 Speicher ist die Tesla V100 für die anspruchvollsten Deep-Learning-Anwendungen ausgelegt.
Alle angeboten NVIDIA GPUs werden von NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT angetrieben und werden damit in alle gängige Deep-Learning-Frameworks unterstützt.
Threadripping CPU-Leistung
Die High-End AMD Threadripper-CPU für Workstations und Server arbeitet mit bis zu 32 Cores und insgesamt 64 Threads pro CPU. Die verfügbaren 64 PCI 3.0-Lanes der AMD Threadripper-CPU ermöglichen höchste Datenübertragungsraten zwischen der CPU und den GPUs.
Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.
Bis zu 8 TB High-Speed-SSD-Speicher
Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich. Der AIME R400 kann mit zwei NVMe-SSDs konfiguriert werden, die über PCI-Lanes direkt mit der CPU und dem Hauptspeicher verbunden sind. Wir bieten die folgenden drei zu konfigurierenden SSD-Klassen an:
- QLC-Typ: Hohe Leseraten, durchschnittliche Schreibgeschwindigkeit - am besten zum Lesen von statischen Datenbibliotheken oder Archiven geeignet
- TLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für schnellen Lese- / Schreibzugriff auf Dateien
- MLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für Hochleistungsdatenbanken, Datenstreaming und Virtualisierung
Aufeinander abgestimmte Komponenten
All unsere Komponenten wurden aufgrund ihrer Energieeffizienz, Haltbarkeit, Kompatibilität und hohen Leistung ausgewählt. Sie sind perfekt aufeinander abgestimmt, so dass keine Leistungsengpässe entstehen. Wir optimieren unsere Hardware im Hinblick auf Kosten pro Leistung, ohne Kompromisse bei der Langlebigkeit und Zuverlässigkeit einzugehen.
Für Deep-Learning-Anwendungen entwickelt
Der AIME R400 wurde zuerst für unsere eigenen Anforderungen für Deep-Learning-Anwendungen entwickelt und hat sich aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und dem Aufbau von PC-Hardware entwickelt.
Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert und sind mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und Mxnet vorkonfiguriert. Loggen Sie sich direkt nach dem Auspacken ein und starten Sie sofort mit Ihrem bevorzugten Deep-Learning-Framework mit der Entwicklung.
Technische Daten
Typ | Rack Server 6HE, 45cm Tiefe |
CPU (konfigurierbar) | Threadripper 1920X (12 cores, 4 GHz) Threadripper 1950X (16 cores, 4 GHz) Threadripper 2920X (12 cores, 4.3 GHz) Threadripper 2950X (16 cores, 4.3 GHz) Threadripper 2970X (24 cores, 4.2 GHz) Threadripper 2990X (32 cores, 4.2 GHz) |
RAM | 64 or 128 GB ECC optional |
GPU Optionen | 4x NVIDIA RTX 2080TI oder 4x NVIDIA RTX Titan oder 4x NVIDIA Tesla V100 |
Kühlung | CPU flüssigkeitsgekühlt GPUs mit starkem Luftstrom gekühlt Hochleistungslüfter > 100000h MTBF |
Speicher | Bis zu 2 X 2TB NVMe SSD Konfigurations-Optionen: QLC: 1500 MB/s read, 1000 MB/s write TLC: 3500 MB/s read, 1750 MB/s, write MLC: 3500 MB/s read, 2700 MB/s write |
Netzwerk | 2 x 1000 MBit LAN |
USB | 2 x USB 3.1 Gen 1 ports (front) 1 x USB Type-C™ USB 3.1 Gen 2 1 x USB 3.1 Gen 2 Type-A 6 x USB 3.1 Gen 1 |
PSU | 2000 Watt Leistung 80 PLUS Platinum certified (94% efficiency) |
Geräusch-Pegel | < 50dBA |
Abmessungen (BxHxT) | 440 x 265 x 430 mm |