AIME T400 - Workstation
Die perfekte Workstation für die Deep-Learning-Entwicklung. Nutzen Sie die Leistung von 4 GPUs direkt unter Ihrem Schreibtisch. Durch seine Flüsterleise-Technologie mit Flüssigkeitskühlung ist der AIME T400 für den Einsatz in Büroumgebungen geeignet.
Trainieren Sie Ihre Tensorflow-Modelle mit der vierfachen Geschwindigkeit: KI-Supercomputing-Leistung mit mehr als 400 Billionen Tensor FLOPS! Dies entspricht der Leistung von mehren hundert herkömmlichen Servern.
AIME T400 - Flüssigkeitsgekühlte Deep-Learning-Leistung
Mit dem ausgeklügelten Kühlsystem des AIME T400 werden die CPU und alle verbauten GPUs hocheffektiv Flüssigkeits gekühlt. Aufgrund der Kühlkörpern mit hoher Wärmeleitfähigkeit und der hohen Kühlleistung der Flüssigkeit im Vergleich zur Luft wird die Betriebstemperatur aller Komponenten deutlich unter 60°C gehalten. Die gewährleistete niedrige Betriebstemperatur reduziert die Gefahr von Überhitzung von GPU und CPU und ermöglicht es, dass alle Komponenten auch unter Volllast im 24/7-Betrieb auf höchstem Leistungsniveau gehalten werden können.
Die großen Kühlköper an der Vorder- und Oberseite des Systems werden zusätzlich durch geräuscharme Lüfter hoher Lebensdauer (>10 Jahre MTBF) gekühlt.
Dieses Design hält das System kühler, leistungsfähiger, langlebiger und weitaus geräuschärmer als ein System, das aus einer Sammlung von nicht aufeinander abgestimmten Lüftern besteht.
NVIDIA RTX 2080 TI - Turing Power
Die flüssigkeitsgekühlten GPUs des AIME T400 ermöglichen den Betrieb von bis zu 4 High-End-GPUs im Gehäuseformat eines Midi-Towers. Die in der AIME T400 Worksation genutzen flüssigkeitsgekühlten NVIDIA RTX 2080 TI-GPUs gehören zu den leistungsfähigsten NVIDIA GPUs mit dem bestem Preis/Leistungs-Verhältniss für Deep-Learning-Anwendungen.
Jede NVIDIA RTX 2080 TI trainiert AI-Modelle mit 544 NVIDIA Turing mixed-precision Tensor Cores, die eine AI-Leistung von 107 Terra Tensor FLOPS abliefern und bietet 11 GB ultra-schnellen GDDR6 Speicher. Angetrieben von NVIDIAs CUDA-X AI SDK inkl. cuDNN und TensorRT werden alle gängige Deep-Learning-Frameworks unterstützt.
Mit dem AIME T400 können Sie die Leistung von bis zu vier solcher Hochleistungs-GPUs kombinieren und erreichen damit eine AI-Leistung von mehr als 400 Billionen Tensor-Operationen pro Sekunde.
Threadripping CPU-Leistung
Die High-End AMD Threadripper-CPU für Workstations und Server arbeitet mit bis zu 32 Cores und insgesamt 64 Threads pro CPU. Die verfügbaren 64 PCI 3.0-Lanes der AMD Threadripper-CPU ermöglichen höchste Datenübertragungsraten zwischen der CPU und den GPUs.
Der Datendurchsatz kann durch die hohe Anzahl verfügbarer CPU-Kerne erheblich verbessert werden, da hierdurch die GPUs optimal mit Aufgaben versorgt werden können, wenn diese für das Preprocessing und die Bereitstellung von Daten genutzt werden.
Bis zu 4 TB High-Speed SSD-Speicher
Beim Deep Learning müssen hohe Datenmengen verarbeitet und gespeichert werden. Ein hoher Datendurchsatz und schnelle Zugriffszeiten auf die Daten sind daher für schnelle Turnaround-Zeiten unerlässlich. Der AIME T400 kann mit zwei NVMe-SSDs konfiguriert werden, die über PCI-Lanes direkt mit der CPU und dem Hauptspeicher verbunden sind. Wir bieten die folgenden drei zu konfigurierenden SSD-Klassen an:
- QLC-Typ: Hohe Leseraten, durchschnittliche Schreibgeschwindigkeit - am besten zum Lesen von statischen Datenbibliotheken oder Archiven geeignet
- TLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für schnellen Lese- / Schreibzugriff auf Dateien
- MLC-Typ: Höchste Lese- und Schreibgeschwindigkeit - am besten geeignet für Hochleistungsdatenbanken, Datenstreaming und Virtualisierung
Aufeinander abgestimmte Komponenten
All unsere Komponenten wurden aufgrund ihrer Energieeffizienz, Haltbarkeit, Kompatibilität und hohen Leistung ausgewählt. Sie sind perfekt miteiander ausbalanciert, so dass keine Leistungsengpässe entstehen. Wir optimieren unsere Hardware im Hinblick auf Kosten pro Leistung, ohne Kompromisse bei der Langlebigkeit und Zuverlässigkeit einzugehen.
Für Deep-Learning-Anwendungen entwickelt
Der AIME T400 wurde zuerst für unsere eigenen Anforderungen für Deep-Learning-Anwendungen entwickelt und hat sich aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und dem Aufbau von PC-Hardware entwickelt.
Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert und sind mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und Mxnet vorkonfiguriert. Loggen Sie sich direkt nach dem Auspacken ein und starten Sie sofort mit Ihrem bevorzugten Deep-Learning-Framework mit der Entwicklung.
Technische Daten
Typ | Mid Tower Workstation |
CPU (konfigurierbar) | Threadripper 1920X (12 cores, 4 GHz) Threadripper 1950X (16 cores, 4 GHz) Threadripper 2920X (12 cores, 4.3 GHz) Threadripper 2950X (16 cores, 4.3 GHz) Threadripper 2970X (24 cores, 4.2 GHz) Threadripper 2990X (32 cores, 4.2 GHz) |
RAM | 64 or 128 GB ECC optional |
GPU Optionen | 2 bis 4 NVIDIA RTX 2080 TI |
Kühlung | CPU and GPU flüssigkeitsgekühlt Geräuscharme Kühlerlüfter > 100000h MTBF |
Speicher | Bis zu 2 X 2TB NVMe SSD Konfigurations-Optionen: QLC: 1500 MB/s read, 1000 MB/s write TLC: 3500 MB/s read, 1750 MB/s, write MLC: 3500 MB/s read, 2700 MB/s write |
Netzwerk | 2 x 1000 MBit LAN |
USB | 1 x USB Type-C™ port with USB 3.1 Gen 1 (front) 2 x USB 3.1 Gen 1 ports (front) 1 x USB Type-C™ USB 3.1 Gen 2 1 x USB 3.1 Gen 2 Type-A 6 x USB 3.1 Gen 1 |
PSU | 1600 Watt Leistung 80 PLUS Titanium certified (96% efficiency) |
Geräusch-Pegel | Idle < 30dBA, Full Load < 40dBA |
Abmessungen (BxHxT) | 233 x 465 x 538 mm |