Artificial Intelligence Machines

Optimiert für Deep Learning

Workstations & Rack Server

Sparen Sie bis zu 90%, indem Sie von Ihrem Cloud-Anbieter auf AIME-Produkte umsteigen. Unsere Multi-GPU-beschleunigten Computer werden mit vorinstallierten Frameworks ausgeliefert, wie Tensorflow, Keras, PyTorch, MXNet u.a. Beginnen Sie sofort nach dem Auspacken mit dem Training.

Konfigurieren

Features

Optimiert für Deep Learning

Unsere Maschinen sind für Deep-Learning-Anwendungen konzipiert und optimiert.

Deep-Learning-Anwendungen erfordern schnellen Speicher, hohe Interkonnektivität und extrem viel Rechenleistung. Unser 4-GPU-Design erreicht innerhalb dieses Formfaktors die derzeit höchstmögliche Performance.

Ausgewogene Komponenten

All unsere Komponenten werden auf Basis ihrer Energieeffizienz, Langlebigkeit und hohen Leistung ausgewählt. Sie sind perfekt aufeinander abgestimmt, um Leistungsengpässe zu vermeiden. Unsere Hardware ist auf ein optimales Preis-Leistungsverhältnis getrimmt, ohne dabei Kompromisse hinsichtlich Ausdauer und Zuverlässigkeit einzugehen.

Getestet mit anspruchsvollen Deep-Learning-Anwendungen

Unsere Hardware wurde in erster Linie für unsere eigenen Anwendungsanforderungen entwickelt. Sie ist aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und kundenspezifischem Aufbau von PC-Hardware erwachsen.

Vorteile für Ihre Deep-Learning-Projekte

Schneller iterieren

Unproduktiv auf ein Ergebnis zu warten, ist frustrierend. Idealerweise sollte Ihre Maschine über Nacht trainieren, damit Sie die Ergebnisse gleich am nächsten Morgen überprüfen und weiterarbeiten können.

Modellkomplexität erweitern

Falls Sie Ihre Modelle aufgrund begrenzter Rechenzeit einschränken müssen, haben Sie mit Sicherheit nicht genügend Rechenzeit. Erreichen Sie größere Accuracy-Werte durch höhere Leistung und unbeschränkte Rechenzeit. Erweitern Sie die Größe Ihrer Modelle.

Trainieren Sie mit mehr Daten, lernen Sie schneller, führen Sie bei jeder Berechnung vollständige Iterationen durch.

Forschen ohne Kostenfalle

Aus Fehlern lernt man, sie gehören zum Entwicklungsprozess und sind nötig, um Modellstrukturen zu verfeinern. Ärgerlich ist es allerdings, wenn jeder Fehler in Euro abgerechnet wird, die Ihnen externe Cloud-Dienstleister in Rechnung stellen. Arbeiten Sie also nicht weiter gegen den Kostenzähler.

Schützen Sie Ihre Daten

Arbeiten Sie mit sensiblen Daten oder solche, die nur in Ihrem Unternehmen verarbeitet werden dürfen? Dann schützen Sie Ihre Daten, indem Sie diese nicht bei Cloud-Service-Providern hochladen, sondern auf Ihrer firmeninternen Hardware verarbeiten.

Loslegen - Gleich nach dem Auspacken

Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert, das mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und MXNet vorkonfiguriert ist. Beginnen Sie sofort nach dem Auspacken mit Ihrem bevorzugten Deep-Learning-Framework.

Sparen Sie Geld

Cloud-Dienste, die eine vergleichbare Leistung bieten, haben einen Stundensatz von 14 Euro oder mehr. Diese Kosten können für die Anmietung einer einzelnen Instanz schnell auf Hunderttausende Euro pro Jahr ansteigen.
Unsere Hardware ist für einen Bruchteil dieser Kosten erhältlich und bietet die gleiche Leistung wie ein hochwertiger Cloud Service. Die Gesamtbetriebskosten / TCO sind gering, im Vergleich zu Cloud Service sparen sie dadurch monatlich Tausende von Euro an Servicekosten ein.

Weiterlesen: CLOUD VS. ON-PREMISE - Total Cost of Ownership Analyse

Unsere Produkte

AIME R400 Rack Server

Ihr Deep-Learning-Server höchster Performance, ausgelegt für einen 24-Stunden-Dauereinsatz in Ihrem hauseigenen Rechenzentrum oder an Ihrem firmeninternen Standort.

  • GPU: 4x NVIDIA RTX 2080TI or
    4x NVIDIA RTX Titan or
    4x NVIDIA Tesla V100
  • CPU: AMD Threadripper 12-32 Cores
  • RAM: 64 - 128 GB, optional ECC
  • SSD: 1-4 TB, NVMe (QLC/TLC/MLC)

AIME T400 Workstation

Die perfekte Workstation für die Deep-Learning-Entwicklung. Verfügen Sie über vier leistungsstarke GPUs direkt unter Ihrem Schreibtisch. Durch die AIME Flüster-Technologie mit Flüssigkeitskühlung eignet sich die Workstation für den Einsatz in Büroumgebungen.

  • GPU: 2-4x NVIDIA RTX 2080TI
  • CPU: AMD Threadripper 12-32 Cores
  • RAM: 64 - 128 GB, optional ECC
  • SSD: 1-4 TB, NVMe (QLC/TLC/MLC)

Vermissen Sie Ihre Wunschkonfiguration? Wir bieten auch maßgeschneiderte Lösungen an. Bei uns finden Sie Hardware-Lösungen für maschinelles Lernen für:

  • Entwicklungsteams
  • Inhouse Unternehmensdienstleistungen
  • Datenzentren
  • Cloud Hosting

Kontaktieren Sie uns

Rufen Sie uns an oder senden Sie uns eine E-Mail, wenn Sie Fragen haben oder eines unserer Systeme bestellen möchten.