Artificial Intelligence Machines

Optimiert für Deep-Learning

Workstations & Rack Server

Sparen Sie 90%, indem Sie von Ihrem bisherigen Cloud-Anbieter auf AIME-Produkte umsteigen. Unsere Multi-GPU-beschleunigten Computer werden mit vorinstallierten Frameworks ausgeliefert, wie Tensorflow, Keras, PyTorch, MXNet u.a. Beginnen Sie sofort nach dem Auspacken mit dem Training.

Konfigurieren

Kundenvertrauen in ganz Europa

In ganz Europa verwenden Forscher und Ingenieure an Universitäten, in Start-Ups, großen Unternehmen, Behörden und nationalen Labors etc. AIME-Produkte für ihre Arbeit zur Entwicklung künstlicher Intelligenz.

und viele weitere...

AIME ist Mitglied des KI Bundesverbands

AIME Workstations

Workstation

AIME T400

Die perfekte Workstation für die Deep-Learning-Entwicklung. Verfügen Sie über leistungsstarke multi-GPUs direkt unter Ihrem Schreibtisch. Durch die AIME Flüster-Technologie mit Flüssigkeitskühlung eignet sich die Workstation für den Einsatz in Büroumgebungen.

  • GPU: 2-4x NVIDIA RTX 2080TI oder
    2-3x NVIDIA Titan RTX
  • CPU: AMD Threadripper 12-32 Cores
  • RAM: 64 - 128 GB, optional ECC
  • SSD: 1-4 TB, NVMe (QLC/TLC/MLC)
AIME T400 Starter

Pitch Black 2x 2080Ti

Unsere Workstation für Deep-Learning-Einsteiger

GPU: 2x NVIDIA RTX 2080TI
CPU: AMD Threadripper 12 Cores (4 GHz)
RAM: 64 GB
SSD: 2 TB, NVMe (TLC)

Kaufen für 6.099,00 €
AIME T400 Performer

Pitch Black 2x Titan RTX

Unsere High-Performance Workstation für die professionelle Deep-Learning-Entwicklung.

GPU: 2x NVIDIA Titan RTX
CPU: AMD Threadripper 24 Cores (4.2 GHz)
RAM: 64 GB ECC
SSD: 2 TB, NVMe (TLC)

Kaufen für 9.749,00 €

AIME Servers

6HE Server

AIME R410

Ihr Deep-Learning-Server höchster Performance, ausgelegt für einen 24-Stunden-Dauereinsatz in Ihrem hauseigenen Rechenzentrum oder an Ihrem firmeninternen Standort.

  • GPU: 4x NVIDIA RTX 2080TI oder
    4x NVIDIA Titan RTX oder
    4x NVIDIA Quadro RTX 6000 oder
    4x NVIDIA Tesla V100
  • CPU: AMD EPYC 8-32 Cores
  • RAM: 64 - 256 GB with ECC
  • SSD: 1-4 TB, NVMe (QLC/TLC/MLC)
4HE Server

AIME R500

Ihr Deep-Learning-Server höchster Performance, ausgelegt für einen 24-Stunden-Dauereinsatz in Ihrem hauseigenen Rechenzentrum oder an Ihrem firmeninternen Standort.

  • GPU: 4x NVIDIA RTX 2080TI oder
    4x NVIDIA Quadro RTX 6000 oder
    4x NVIDIA Quadro GV100
  • CPU: AMD EPYC 8-32 Cores
  • RAM: 64 - 256 GB with ECC
  • SSD: 1-8 TB, NVMe (QLC/TLC/MLC)
GPU Server Hosting

Multi-GPU-Server mieten

Mieten sie einen AIME R500 Server in unserer AI-Cloud auf wöchentlicher oder monatlicher Basis, nur so lange, wie Sie ihn benötigen.
Sie erhalten vollen Remote-Zugang zu einem bare-metal high-end multi-GPU Server, speziell zugeschnitten auf rechenintensive Projekte.

Sparen Sie sich Installationsaufwand und Administrationskosten, oder testen Sie den AIME R500 vor einem Kauf.

  • Basic: 4x NVIDIA RTX 2080TI, 16crs, 128GB
  • Professional: 2x NVIDIA Tesla V100, 16crs, 128GB
  • Enterprise: 4x NVIDIA Tesla V100, 24crs, 256GB

Maßgeschneiderte Lösungen

Vermissen Sie Ihre Wunschkonfiguration? Wir bieten auch maßgeschneiderte Lösungen an. Bei uns finden Sie Hardware-Lösungen für maschinelles Lernen für:

  • Entwicklungsteams
  • Inhouse Unternehmensdienstleistungen
  • Datenzentren
  • Cloud Hosting

Features

Optimiert für Deep-Learning

Unsere Maschinen sind für Deep-Learning-Anwendungen konzipiert und optimiert.

Deep-Learning-Anwendungen erfordern schnellen Speicher, hohe Interkonnektivität und extrem viel Rechenleistung. Unser 4-GPU-Design erreicht innerhalb dieses Formfaktors die derzeit höchstmögliche Performance.

Ausgewogene Komponenten

All unsere Komponenten werden auf Basis ihrer Energieeffizienz, Langlebigkeit und hohen Leistung ausgewählt. Sie sind perfekt aufeinander abgestimmt, um Leistungsengpässe zu vermeiden. Unsere Hardware ist auf ein optimales Preis-Leistungsverhältnis getrimmt, ohne dabei Kompromisse hinsichtlich Ausdauer und Zuverlässigkeit einzugehen.

Getestet mit anspruchsvollen Deep-Learning-Anwendungen

Unsere Hardware wurde in erster Linie für unsere eigenen Anwendungsanforderungen entwickelt. Sie ist aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und kundenspezifischem Aufbau von PC-Hardware erwachsen.

AIME ML Container Manager

Unsere Server und Workstations werden mit dem vorinstallierten AIME ML Container Manager ausgeliefert, einem umfassenden Software-Stack, mit dem Entwickler problemlos AI-Projekte einrichten und zwischen Frameworks und Projekten navigieren können.

Die für das jeweilige Deep Learning-Framework erforderlichen Bibliotheken und GPU-Treiber werden in vorkonfigurierten Docker-Kontainern geladen und können mit einfachen Befehlen konfiguriert und gestartet werden.

Die gängigsten Frameworks - u.a. TensorFlow, Keras, PyTorch und Mxnet - sind vorinstalliert und sofort einsatzbereit.

Der AIME ML Container Manager erleichtert Entwicklern das Leben, sodass sie sich nicht um Probleme bei der Installation der Framework-Versionen kümmern müssen.

Vorteile für Ihre Deep-Learning-Projekte

Schneller iterieren

Unproduktiv auf ein Ergebnis zu warten, ist frustrierend. Idealerweise sollte Ihre Maschine über Nacht trainieren, damit Sie die Ergebnisse gleich am nächsten Morgen überprüfen und weiterarbeiten können.

Modellkomplexität erweitern

Falls Sie Ihre Modelle aufgrund begrenzter Rechenzeit einschränken müssen, haben Sie mit Sicherheit nicht genügend Rechenzeit. Erreichen Sie größere Accuracy-Werte durch höhere Leistung und unbeschränkte Rechenzeit. Erweitern Sie die Größe Ihrer Modelle.

Trainieren Sie mit mehr Daten, lernen Sie schneller, führen Sie bei jeder Berechnung vollständige Iterationen durch.

Forschen ohne Kostenfalle

Aus Fehlern lernt man, sie gehören zum Entwicklungsprozess und sind nötig, um Modellstrukturen zu verfeinern. Ärgerlich ist es allerdings, wenn jeder Fehler in Euro abgerechnet wird, die Ihnen externe Cloud-Dienstleister in Rechnung stellen. Arbeiten Sie also nicht weiter gegen den Kostenzähler.

Schützen Sie Ihre Daten

Arbeiten Sie mit sensiblen Daten oder solche, die nur in Ihrem Unternehmen verarbeitet werden dürfen? Dann schützen Sie Ihre Daten, indem Sie diese nicht bei Cloud-Service-Providern hochladen, sondern auf Ihrer firmeninternen Hardware verarbeiten.

Loslegen - Gleich nach dem Auspacken

Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert, das mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und MXNet vorkonfiguriert ist. Beginnen Sie sofort nach dem Auspacken mit Ihrem bevorzugten Deep-Learning-Framework.

Weiterlesen: AIME Machine Learning Framework Container Management

Sparen Sie Geld

Cloud-Dienste, die eine vergleichbare Leistung bieten, haben einen Stundensatz von 14 Euro oder mehr. Diese Kosten können für die Anmietung einer einzelnen Instanz schnell auf Hunderttausende Euro pro Jahr ansteigen.
Unsere Hardware ist für einen Bruchteil dieser Kosten erhältlich und bietet die gleiche Leistung wie ein hochwertiger Cloud Service. Die Gesamtbetriebskosten / TCO sind gering, im Vergleich zu Cloud Service sparen sie dadurch monatlich Tausende von Euro an Servicekosten ein.
Wenn Sie keine eigene Hardware kaufen möchten, mieten Sie einen unserer Hosted-Bare-Metal-Server zu wettbewerbsfähigen Preisen.

Weiterlesen: CLOUD VS. ON-PREMISE - Total Cost of Ownership Analyse

Kontaktieren Sie uns

Wenn sie Fragen haben rufen Sie uns an oder senden Sie uns eine E-Mail. Wir helfen Ihnen gerne bei der Suche nach der am besten geeigneten Rechenlösung.