AIME T400 - Workstation

Die perfekte Workstation für die Deep-Learning-Entwicklung. Nutzen Sie die Leistung von 4 GPUs direkt unter Ihrem Schreibtisch. Durch seine Flüsterleise-Technologie mit Flüssigkeitskühlung ist der AIME T400 für den Einsatz in Büroumgebungen geeignet. Trainieren Sie Ihre Tensorflow-Modelle mit der vierfachen Geschwindigkeit: KI-Supercomputing-Leistung mit mehr als 400 Billionen Tensor FLOPS! Dies entspricht der Leistung von mehren hundert herkömmlichen Servern.

Dieses Produkt ist zur Zeit nicht lieferbar.

Reservieren

AIME T400 - Flüssigkeitsgekühlte Deep-Learning-Leistung

Mit dem ausgeklügelten Kühlsystem des AIME T400 werden die CPU und alle verbauten GPUs hocheffektiv Flüssigkeits gekühlt. Aufgrund der Kühlkörpern mit hoher Wärmeleitfähigkeit und der hohen Kühlleistung der Flüssigkeit im Vergleich zur Luft wird die Betriebstemperatur aller Komponenten deutlich unter 60°C gehalten. Die gewährleistete niedrige Betriebstemperatur reduziert die Gefahr von Überhitzung von GPU und CPU und ermöglicht es, dass alle Komponenten auch unter Volllast im 24/7-Betrieb auf höchstem Leistungsniveau gehalten werden können.

Die großen Kühlköper an der Vorder- und Oberseite des Systems werden zusätzlich durch geräuscharme Lüfter hoher Lebensdauer  (>10 Jahre MTBF) gekühlt.

Dieses Design hält das System kühler, leistungsfähiger, langlebiger und weitaus geräuschärmer als ein System, das aus einer Sammlung von nicht aufeinander abgestimmten Lüftern besteht.

NVIDIA RTX 2080 TI - Turing Power

Die flüssigkeitsgekühlten GPUs des AIME T400 ermöglichen den Betrieb von bis zu 4 High-End-GPUs im Gehäuseformat eines Midi-Towers. Die in der AIME T400 Worksation genutzen flüssigkeitsgekühlten NVIDIA RTX 2080 TI-GPUs gehören zu den leistungsfähigsten NVIDIA GPUs mit dem bestem Preis/Leistungs-Verhältniss für Deep-Learning-Anwendungen.

Jede NVIDIA RTX 2080 TI trainiert AI-Modelle mit 544 NVIDIA Turing mixed-precision Tensor Cores, die eine AI-Leistung von 107 Terra Tensor FLOPS abliefern und bietet 11 GB ultra-schnellen GDDR6 Speicher. Angetrieben von NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT werden alle gängige Deep-Learning-Frameworks unterstützt.

Mit dem AIME T400 können Sie die Leistung von bis zu vier solcher Hochleistungs-GPUs kombinieren und erreichen damit eine AI-Leistung von mehr als 400 Billionen Tensor-Operationen pro Sekunde.

Threadripping CPU-Leistung

Die High-End AMD Threadripper-CPU für Workstations und Server arbeitet mit bis zu 32 Cores und insgesamt 64 Threads pro CPU. Die verfügbaren 64 PCI 3.0-Lanes der AMD Threadripper-CPU ermöglichen höchste Datenübertragungsraten zwischen der CPU und den GPUs.

Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.

Bis zu 4 TB High-Speed SSD-Speicher

Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich. Der AIME T400 kann mit zwei NVMe-SSDs konfiguriert werden, die über PCI-Lanes direkt mit der CPU und dem Hauptspeicher verbunden sind. Wir bieten die folgenden drei zu konfigurierenden SSD-Klassen an:

  • QLC-Typ: Hohe Leseraten, durchschnittliche Schreibgeschwindigkeit - am besten zum Lesen von statischen Datenbibliotheken oder Archiven geeignet
  • TLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für schnellen Lese- / Schreibzugriff auf Dateien
  • MLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für Hochleistungsdatenbanken, Datenstreaming und Virtualisierung

Aufeinander abgestimmte Komponenten

All unsere Komponenten wurden aufgrund ihrer Energieeffizienz, Haltbarkeit, Kompatibilität und hohen Leistung ausgewählt. Sie sind perfekt miteiander ausbalanciert, so dass keine Leistungsengpässe entstehen. Wir optimieren unsere Hardware im Hinblick auf Kosten pro Leistung, ohne Kompromisse bei der Langlebigkeit und Zuverlässigkeit einzugehen.

Für Deep-Learning-Anwendungen entwickelt

Der AIME T400 wurde zuerst für unsere eigenen Anforderungen für Deep-Learning-Anwendungen entwickelt und hat sich aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und dem Aufbau von PC-Hardware entwickelt.

Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert und sind mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und Mxnet vorkonfiguriert. Loggen Sie sich direkt nach dem Auspacken ein und starten Sie sofort mit Ihrem bevorzugten Deep-Learning-Framework mit der Entwicklung.

Technische Daten

Typ Mid Tower Workstation
CPU (konfigurierbar) Threadripper 1920X (12 cores, 4 GHz)
Threadripper 1950X (16 cores, 4 GHz)
Threadripper 2920X (12 cores, 4.3 GHz)
Threadripper 2950X (16 cores, 4.3 GHz)
Threadripper 2970X (24 cores, 4.2 GHz)
Threadripper 2990X (32 cores, 4.2 GHz)
RAM 64 or 128 GB
ECC optional
GPU Optionen 2 bis 4 NVIDIA RTX 2080 TI
Kühlung CPU and GPU flüssigkeitsgekühlt
Geräuscharme Kühlerlüfter > 100000h MTBF
Speicher Bis zu 2 X 2TB NVMe SSD
Konfigurations-Optionen:
QLC: 1500 MB/s read, 1000 MB/s write
TLC: 3500 MB/s read, 1750 MB/s, write
MLC: 3500 MB/s read, 2700 MB/s write
Netzwerk 2 x 1000 MBit LAN
USB 1 x USB Type-C™ port with USB 3.1 Gen 1 (front)
2 x USB 3.1 Gen 1 ports (front)
1 x USB Type-C™ USB 3.1 Gen 2
1 x USB 3.1 Gen 2 Type-A
6 x USB 3.1 Gen 1
PSU 1600 Watt Leistung
80 PLUS Titanium certified (96% efficiency)
Geräusch-Pegel Idle < 30dBA, Full Load < 40dBA
Abmessungen (BxHxT) 233 x 465 x 538 mm

AIME T400 featuered technologies