Artificial Intelligence Machines
Optimiert für Deep-Learning
Workstations & Rack Server
KonfigurierenKundenvertrauen in ganz Europa
In ganz Europa verwenden Forscher und Ingenieure an Universitäten, in Start-Ups, großen Unternehmen, Behörden und nationalen Labors etc. AIME-Produkte für ihre Arbeit zur Entwicklung künstlicher Intelligenz.
und viele weitere...

AIME Server
4HE Server
AIME A8000
Entfesseln Sie mit bis zu 8 GPUs oder Beschleunigerkarten die Deep Learning-Leistung von mehreren Peta TensorOps. Dual EPYC CPUs mit höchster PCIe 4.0 Geschwindigkeit und bis zu 100 GBE Netzwerk-Konnektivität. Ein Multi-GPU-Server, der für die maximale Leistung in Ihrem Rechenzentrum oder Ihrer Co-Location entwickelt wurde.
-
GPU:
4-8x NVIDIA A100 80 GB oder
4-8x NVIDIA RTX 6000 Ada 48 GB oder
4-8x NVIDIA RTX 3090 24 GB oder
4-8x NVIDIA RTX A6000 48 GB oder
4-8x NVIDIA RTX A5000 24 GB oder
4-8x NVIDIA Tesla V100S 32 GB - CPU: Dual AMD EPYC 8 - 64 Cores
- RAM: 128-2048 GB with ECC
- SSD: 1-16 TB, U.2 NVMe SSD
2HE Server
AIME A4000
Ihr effizienter Deep-Learning-Server mit der Performance von bis zu 4 GPUs oder Beschleunigerkarten. Verpackt in kompakten 2HE, mit EPYC CPU, PCIe 4.0 Geschwindigkeit und bis zu 100 GBE Netzwerk-Konnektivität. Zuverlässigstes High Performance Multi-GPU-Computing für Ihr Rechenzentrum oder Co-Location.
-
GPU:
2-4x NVIDIA A100 80 GB oder
2-4x NVIDIA A100 40 GB oder
1-2x NVIDIA H100 80 GB oder
2-4x NVIDIA RTX 6000 Ada 48 GB oder
2-4x NVIDIA RTX 3090 Turbo 24 GB oder
2-4x NVIDIA RTX A6000 48 GB oder
2-4x NVIDIA RTX A5000 24 GB oder
2-4x NVIDIA Tesla V100S 32 GB - CPU: AMD EPYC 8-64 Cores
- RAM: 64-1024 GB with ECC
- SSD: 1-32 TB, NVMe U.2 SSD
AIME Workstations
Workstation
AIME T600
Die perfekte Workstation für die Deep-Learning-Entwicklung. Verfügen Sie über leistungsstarke Multi-GPUs direkt unter Ihrem Schreibtisch. Durch das ausgeklügelte AIME-Kühlkonzept eignet sich die Workstation für den Einsatz in Büroumgebungen.
-
GPU:
1-4x NVIDIA RTX 3090 24 GB oder
2-4x NVIDIA RTX A5000 24 GB oder
1-4x NVIDIA RTX A6000 48 GB oder
1-4x NVIDIA RTX 6000 Ada 48 GB - CPU: AMD Threadripper Pro 16-64 Cores (Zen3)
- RAM: 64-512 GB ECC
- SSD: 3x 1-8 TB, NVMe TLC
- HDD: 8-16 TB 3.5'' SATA 7.200 RPM 256 MB Cache
Unsere Workstation für Deep-Learning-Einsteiger.
GPU: 2x NVIDIA RTX 3080 TI 12 GB
CPU: AMD Ryzen 5 (6 Cores, 4.5 GHz)
RAM: 64 GB
SSD: 2 TB NVMe PCIe 4.0 TLC
Unsere High-Performance Workstation für die professionelle Deep-Learning-Entwicklung.
GPU: 4x NVIDIA RTX A6000 48 GB
CPU: Threadripper Pro 16 cores (4.3 GHz)
RAM: 256 GB ECC 3.200 MHz
SSD: 4 TB NVMe PCIe 4.0 TLC
AIME GPU Cloud
GPU Cloud Server
Multi-GPU-Server mieten
Mieten sie einen AIME Server in unserer AI-Cloud auf wöchentlicher oder monatlicher Basis, nur so lange, wie Sie ihn benötigen.
Sie erhalten vollen Remote-Zugang zu einem high-end multi-GPU Bare-Metal-Server, speziell zugeschnitten auf rechenintensive Projekte.
Sparen Sie sich Installationsaufwand und Administrationskosten, oder testen Sie einen AIME Server vor einem Kauf.
- Basic: 4x NVIDIA RTX 3090 24 GB, 24 crs, 256 GB
- Professional: 1-4x NVIDIA RTX A6000 48GB, 10-40 vCrs/24 crs, 60-256 GB
- Enterprise: 1-4x NVIDIA A100 80 GB, 14-56 vCrs/32 crs, 120-512 GB
Maßgeschneiderte Lösungen
Vermissen Sie Ihre Wunschkonfiguration? Wir bieten auch maßgeschneiderte Lösungen an. Bei uns finden Sie Hardware-Lösungen für maschinelles Lernen für:
- Entwicklungsteams
- Inhouse Unternehmensdienstleistungen
- Datenzentren
- Cloud Hosting
Features
Optimiert für Deep-Learning
Unsere Maschinen sind für Deep-Learning-Anwendungen konzipiert und optimiert.
Deep-Learning-Anwendungen erfordern schnellen Speicher, hohe Interkonnektivität und extrem viel Rechenleistung. Unser Multi-GPU-Design erreicht innerhalb dieses Formfaktors die derzeit höchstmögliche Performance.
Ausgewogene Komponenten
All unsere Komponenten werden auf Basis ihrer Energieeffizienz, Langlebigkeit und hohen Leistung ausgewählt. Sie sind perfekt aufeinander abgestimmt, um Leistungsengpässe zu vermeiden. Unsere Hardware ist auf ein optimales Preis-Leistungsverhältnis getrimmt, ohne dabei Kompromisse hinsichtlich Ausdauer und Zuverlässigkeit einzugehen.
Getestet mit anspruchsvollen Deep-Learning-Anwendungen
Unsere Hardware wurde in erster Linie für unsere eigenen Anwendungsanforderungen entwickelt. Sie ist aus jahrelanger Erfahrung mit Deep-Learning-Frameworks und kundenspezifischem Aufbau von PC-Hardware erwachsen.
AIME ML Container Manager
Unsere Server und Workstations werden mit dem vorinstallierten AIME ML Container Manager ausgeliefert, einem umfassenden Software-Stack, mit dem Entwickler problemlos AI-Projekte einrichten und zwischen Frameworks und Projekten navigieren können.
Die für das jeweilige Deep Learning-Framework erforderlichen Bibliotheken und GPU-Treiber werden in vorkonfigurierten Docker-Kontainern geladen und können mit einfachen Befehlen konfiguriert und gestartet werden.
Die gängigsten Frameworks - u.a. TensorFlow, Keras, PyTorch und Mxnet - sind vorinstalliert und sofort einsatzbereit.
Der AIME ML Container Manager erleichtert Entwicklern das Leben, sodass sie sich nicht um Probleme bei der Installation der Framework-Versionen kümmern müssen.
Vorteile für Ihre Deep-Learning-Projekte
Schneller iterieren
Unproduktiv auf ein Ergebnis zu warten, ist frustrierend. Idealerweise sollte Ihre Maschine über Nacht trainieren, damit Sie die Ergebnisse gleich am nächsten Morgen überprüfen und weiterarbeiten können.
Modellkomplexität erweitern
Falls Sie Ihre Modelle aufgrund begrenzter Rechenzeit einschränken müssen, haben Sie mit Sicherheit nicht genügend Rechenzeit. Erreichen Sie größere Accuracy-Werte durch höhere Leistung und unbeschränkte Rechenzeit. Erweitern Sie die Größe Ihrer Modelle.
Trainieren Sie mit mehr Daten, lernen Sie schneller, führen Sie bei jeder Berechnung vollständige Iterationen durch.
Forschen ohne Kostenfalle
Aus Fehlern lernt man, sie gehören zum Entwicklungsprozess und sind nötig, um Modellstrukturen zu verfeinern. Ärgerlich ist es allerdings, wenn jeder Fehler in Euro abgerechnet wird, die Ihnen externe Cloud-Dienstleister in Rechnung stellen. Arbeiten Sie also nicht weiter gegen den Kostenzähler.
Schützen Sie Ihre Daten
Arbeiten Sie mit sensiblen Daten oder solche, die nur in Ihrem Unternehmen verarbeitet werden dürfen? Dann schützen Sie Ihre Daten, indem Sie diese nicht bei Cloud-Service-Providern hochladen, sondern auf Ihrer firmeneigenen Hardware verarbeiten.
Loslegen - Gleich nach dem Auspacken
Unsere Maschinen werden mit vorinstalliertem Linux-Betriebssystem geliefert, das mit den neuesten Treibern und Frameworks wie Tensorflow, Keras, PyTorch und MXNet vorkonfiguriert ist. Beginnen Sie sofort nach dem Auspacken mit Ihrem bevorzugten Deep-Learning-Framework.
Weiterlesen: AIME Machine Learning Framework Container Management
Sparen Sie Geld
Cloud-Dienste, die eine vergleichbare Leistung bieten, haben einen Stundensatz von 14 Euro oder mehr. Diese Kosten können für die Anmietung einer einzelnen Instanz schnell auf Hunderttausende Euro pro Jahr ansteigen.
Unsere Hardware ist für einen Bruchteil dieser Kosten erhältlich und bietet die gleiche Leistung wie ein hochwertiger Cloud Service. Die Gesamtbetriebskosten / TCO sind gering, im Vergleich zu Cloud Service sparen sie dadurch monatlich Tausende von Euro an Servicekosten ein.
Wenn Sie keine eigene Hardware kaufen möchten, mieten Sie einen unserer Hosted-Bare-Metal-Server zu wettbewerbsfähigen Preisen.
Weiterlesen: CLOUD VS. ON-PREMISE - Total Cost of Ownership Analyse
Kontaktieren Sie uns
Wenn sie Fragen haben rufen Sie uns an oder senden Sie uns eine E-Mail. Wir helfen Ihnen gerne bei der Suche nach der am besten geeigneten Rechenlösung.
-
AIME GmbH
Marienburger Str. 1
10405 Berlin
Deutschland - +49 30 459 54 380
- hello@aime.info
- twitter.com/aime_bird
- instagram.com/aime_berlin
- github.com/aime-team