Artificial Intelligence Machines

Optimiert für Deep-Learning

Workstations & Rack Server

Sparen Sie 90%, indem Sie von Ihrem bisherigen Cloud-Anbieter auf AIME-Produkte umsteigen. Unsere multi-GPU-beschleunigten Computer werden mit vorinstallierten Frameworks ausgeliefert, wie Tensorflow, Keras, PyTorch, MXNet u.a. Beginnen Sie sofort nach dem Auspacken mit dem Training.

Konfigurieren

Kundenvertrauen in ganz Europa

In ganz Europa verwenden Forscher und Ingenieure an Universitäten, in Start-Ups, großen Unternehmen, Behörden und nationalen Labors etc. AIME-Produkte für ihre Arbeit zur Entwicklung künstlicher Intelligenz.

und viele weitere...

AIME ist Mitglied des KI Bundesverbands

AIME Server

4HE Server

AIME A8000

Entfesseln Sie mit bis zu 8 GPUs oder Beschleunigerkarten die Deep Learning-Leistung von mehreren Peta TensorOps. Dual EPYC CPUs mit höchster PCIe 4.0 Geschwindigkeit und bis zu 100 GBE Netzwerk-Konnektivität. Ein Multi-GPU-Server, der für die maximale Leistung in Ihrem Rechenzentrum oder Ihrer Co-Location entwickelt wurde.

  • GPU: 4-8x NVIDIA A100 80 GB oder
    4-8x NVIDIA RTX 3090 24 GB oder
    4-8x NVIDIA RTX A6000 48 GB oder
    4-8x NVIDIA RTX A5000 24 GB oder
    4-8x NVIDIA Tesla V100S 32 GB
  • CPU: Dual AMD EPYC 8 - 64 Cores
  • RAM: 128-2048 GB with ECC
  • SSD: 1-16 TB, U.2 NVMe SSD
2HE Server

AIME A4000

Ihr effizienter Deep-Learning-Server mit der Performance von bis zu 4 GPUs oder Beschleunigerkarten. Verpackt in kompakten 2HE, mit EPYC CPU, PCIe 4.0 Geschwindigkeit und bis zu 100 GBE Netzwerk-Konnektivität. Zuverlässigstes High Performance Multi-GPU-Computing für Ihr Rechenzentrum oder Co-Location.

  • GPU: 2-4x NVIDIA A100 80 GB oder
    2-4x NVIDIA A100 40 GB oder
    1-2x NVIDIA H100 80 GB oder
    2-4x NVIDIA RTX 3090 Turbo 24 GB oder
    2-4x NVIDIA RTX A6000 48 GB oder
    2-4x NVIDIA RTX A5000 24 GB oder
    2-4x NVIDIA Tesla V100S 32 GB
  • CPU: AMD EPYC 8-64 Cores
  • RAM: 64-1024 GB with ECC
  • SSD: 1-32 TB, NVMe U.2 SSD

AIME Workstations

Workstation

AIME T600

Die perfekte Workstation für die Deep-Learning-Entwicklung. Verfügen Sie über leistungsstarke Multi-GPUs direkt unter Ihrem Schreibtisch. Durch das ausgeklügelte AIME-Kühlkonzept eignet sich die Workstation für den Einsatz in Büroumgebungen.

  • GPU: 2x NVIDIA RTX 3080 TI 12 GB oder
    1x NVIDIA RTX 3090 TI 24 GB oder
    1-4x NVIDIA RTX 3090 24 GB oder
    2-4x NVIDIA RTX A5000 24 GB oder
    1-4x NVIDIA RTX A6000 48 GB
  • CPU: AMD Threadripper Pro 16-64 Cores (Zen3)
  • RAM: 64-512 GB ECC
  • SSD: 3x 1-8 TB, NVMe (QLC/TLC/MLC)
  • HDD: 8-16 TB 3.5'' SATA 7.200 RPM 256 MB Cache
AIME T502 Starter

2x NVIDIA RTX 3080 TI

Unsere Workstation für Deep-Learning-Einsteiger.

GPU: 2x NVIDIA RTX 3080 TI 12 GB
CPU: AMD Ryzen 5 (6 Cores, 4.5 GHz)
RAM: 64 GB
SSD: 2 TB NVMe PCIe 4.0 TLC

Kaufen für 4.449,00 €
AIME T600 Performer

4x NVIDIA RTX A6000

Unsere High-Performance Workstation für die professionelle Deep-Learning-Entwicklung.

GPU: 4x NVIDIA RTX A6000 48 GB
CPU: Threadripper Pro 16 cores (4.3 GHz)
RAM: 256 GB ECC 3.200 MHz
SSD: 4 TB NVMe PCIe 4.0 TLC

Kaufen für 25.599,00 €

AIME GPU Cloud

GPU Cloud Server

Multi-GPU-Server mieten

Mieten sie einen AIME Server in unserer AI-Cloud auf wöchentlicher oder monatlicher Basis, nur so lange, wie Sie ihn benötigen.
Sie erhalten vollen Remote-Zugang zu einem high-end multi-GPU Bare-Metal-Server, speziell zugeschnitten auf rechenintensive Projekte.

Sparen Sie sich Installationsaufwand und Administrationskosten, oder testen Sie einen AIME Server vor einem Kauf.

  • Basic: 4x NVIDIA RTX 3090 24 GB, 24 crs, 256 GB
  • Professional: 1-4x NVIDIA RTX A6000 48GB, 10-40 vCrs/24 crs, 60-256 GB
  • Enterprise: 1-4x NVIDIA A100 80 GB, 14-56 vCrs/32 crs, 120-512 GB

Maßgeschneiderte Lösungen

Vermissen Sie Ihre Wunschkonfiguration? Wir bieten auch maßgeschneiderte Lösungen an. Bei uns finden Sie Hardware-Lösungen für maschinelles Lernen für:

  • Entwicklungsteams
  • Inhouse Unternehmensdienstleistungen
  • Datenzentren
  • Cloud Hosting

Features

Optimiert für Deep-Learning

Unsere Maschinen sind für Deep-Learning-Anwendungen konzipiert und optimiert.

Deep-Learning-Anwendungen erfordern schnellen Speicher, hohe Interkonnektivität und extrem viel Rechenleistung. Unser Multi-GPU-Design erreicht innerhalb dieses Formfaktors die derzeit höchstmögliche Performance.

Ausgewogene Komponenten

All unsere Komponenten werden auf Basis ihrer Energieeffizienz, Langlebigkeit und hohen Leistung ausgewählt. Sie sind perfekt aufeinander abgestimmt, um Leistungsengpässe zu vermeiden. Unsere Hardware ist auf ein optimales Preis-Leistungsverhältnis getrimmt, ohne dabei Kompromisse hinsichtlich Ausdauer und Zuverlässigkeit einzugehen.

Getestet mit anspruchsvollen Deep-Learning-Anwendungen

Unsere Hardware wurde in erster Linie für unsere eigenen Anwendungsanforderungen entwickelt. Sie ist aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und kundenspezifischem Aufbau von PC-Hardware erwachsen.

AIME ML Container Manager

Unsere Server und Workstations werden mit dem vorinstallierten AIME ML Container Manager ausgeliefert, einem umfassenden Software-Stack, mit dem Entwickler problemlos AI-Projekte einrichten und zwischen Frameworks und Projekten navigieren können.

Die für das jeweilige Deep Learning-Framework erforderlichen Bibliotheken und GPU-Treiber werden in vorkonfigurierten Docker-Kontainern geladen und können mit einfachen Befehlen konfiguriert und gestartet werden.

Die gängigsten Frameworks - u.a. TensorFlow, Keras, PyTorch und Mxnet - sind vorinstalliert und sofort einsatzbereit.

Der AIME ML Container Manager erleichtert Entwicklern das Leben, sodass sie sich nicht um Probleme bei der Installation der Framework-Versionen kümmern müssen.

Vorteile für Ihre Deep-Learning-Projekte

Schneller iterieren

Unproduktiv auf ein Ergebnis zu warten, ist frustrierend. Idealerweise sollte Ihre Maschine über Nacht trainieren, damit Sie die Ergebnisse gleich am nächsten Morgen überprüfen und weiterarbeiten können.

Modellkomplexität erweitern

Falls Sie Ihre Modelle aufgrund begrenzter Rechenzeit einschränken müssen, haben Sie mit Sicherheit nicht genügend Rechenzeit. Erreichen Sie größere Accuracy-Werte durch höhere Leistung und unbeschränkte Rechenzeit. Erweitern Sie die Größe Ihrer Modelle.

Trainieren Sie mit mehr Daten, lernen Sie schneller, führen Sie bei jeder Berechnung vollständige Iterationen durch.

Forschen ohne Kostenfalle

Aus Fehlern lernt man, sie gehören zum Entwicklungsprozess und sind nötig, um Modellstrukturen zu verfeinern. Ärgerlich ist es allerdings, wenn jeder Fehler in Euro abgerechnet wird, die Ihnen externe Cloud-Dienstleister in Rechnung stellen. Arbeiten Sie also nicht weiter gegen den Kostenzähler.

Schützen Sie Ihre Daten

Arbeiten Sie mit sensiblen Daten oder solche, die nur in Ihrem Unternehmen verarbeitet werden dürfen? Dann schützen Sie Ihre Daten, indem Sie diese nicht bei Cloud-Service-Providern hochladen, sondern auf Ihrer firmeneigenen Hardware verarbeiten.

Loslegen - Gleich nach dem Auspacken

Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert, das mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und MXNet vorkonfiguriert ist. Beginnen Sie sofort nach dem Auspacken mit Ihrem bevorzugten Deep-Learning-Framework.

Weiterlesen: AIME Machine Learning Framework Container Management

Sparen Sie Geld

Cloud-Dienste, die eine vergleichbare Leistung bieten, haben einen Stundensatz von 14 Euro oder mehr. Diese Kosten können für die Anmietung einer einzelnen Instanz schnell auf Hunderttausende Euro pro Jahr ansteigen.
Unsere Hardware ist für einen Bruchteil dieser Kosten erhältlich und bietet die gleiche Leistung wie ein hochwertiger Cloud Service. Die Gesamtbetriebskosten / TCO sind gering, im Vergleich zu Cloud Service sparen sie dadurch monatlich Tausende von Euro an Servicekosten ein.
Wenn Sie keine eigene Hardware kaufen möchten, mieten Sie einen unserer Hosted-Bare-Metal-Server zu wettbewerbsfähigen Preisen.

Weiterlesen: CLOUD VS. ON-PREMISE - Total Cost of Ownership Analyse

Kontaktieren Sie uns

Wenn sie Fragen haben rufen Sie uns an oder senden Sie uns eine E-Mail. Wir helfen Ihnen gerne bei der Suche nach der am besten geeigneten Rechenlösung.