30B/65B LLaMa-Chat auf Multi-GPU Servern betreiben

LLaMa (Large Language Model Meta AI) ist eine Sammlung von vortrainierten großen State-of-the-Art-Sprachmodellen, entwickelt von Meta AI. Im Vergleich zum bekannten ChatGPT sind die LLaMa-Modelle kostenlos zum Download verfügbar und können auf eigener Hardware ausgeführt werden.

PyTorch 2 GPU Performance

Dieser Benchmark-basierte Leistungsvergleich zwischen dem neuen PyTorch 2 mit der etablierten ersten Version deckt unter Einbeziehung von Bildklassifizierung und Sprachmodell verschiedene Bereiche des Deep Learning ab. Version 2 übertrifft die alte Version und skaliert gut auf mehreren GPUs.

Stable Diffusion mit webUI in AIME MLC verwenden

Mit der die webUI von AUTOMATIC1111 lässt sich Stable Diffusion komfortabler bedienen, als mittels Python-Skript oder Konsolenbefehl. Das Projekt ist Open-Source und ermöglicht neben der Verwendung verschiedener Modelle die Erweiterung der Funktionspalette über die einfache Bildgenerierung hinaus.

Deep Learning GPU Benchmarks 2022

Im Folgenden bieten wir einen Überblick über die Deep-Learning Leistung aktueller High-End-GPUs. Enthalten sind die neuesten Angebote von NVIDIA: Die Hopper- und Ada-Lovelace- GPU-Generation. Auch die Leistung von Multi-GPU-Setups wird bewertet.

public

AIME Machine Learning Framework Container Management

Um ein Deep Learning-Framework wie Tensorflow oder Pytorch in einer GPU-Umgebung einzurichten und auszuführen, müssen einige Voraussetzungen an die installierten Treiber und Sytembibliotheken erfüllt sein. Dies bedeutet einen hohen Administrations- bzw. Installationsaufwand.

Multi-GPU-Training mit Pytorch

Moderne Software-Anwendungen mit trainierten Deep-Learning-Modellen erfordern eine hohe Anzahl an parallelen Berechnungen. Da GPUs mehr Prozessor-Kerne (>10000) bieten, als klassische CPUs (<=64), ist die Verwendung von GPUs für die meisten Deep-Learning-Anwendungen obligatorisch.

Deep Learning GPU Benchmarks 2021

In diesem Artikel wird ein Überblick über die Deep-Learning Leistung aktueller High-End-GPUs gegeben. Enthalten sind die neuesten Angebote von NVIDIA - die Ampere GPU-Generation. Auch die Leistung von Multi-GPU-Setups, wie z.B. einer quad RTX 3090-Konfiguration, wird bewertet.

AIME GPU Server: Komfortable PyTorch und Tensorflow Entwicklung

Moderne KI-Entwicklung stößt schnell an die Leistungsgrenzen herkömmlicher PCs und Notebooks. AIME Multi-GPU-Server bieten mit ihrer hierauf optimierten Hardware die perfekte Lösung für Deep-Learning-Aufgaben, und erreichen schnellstmögliche Durchlaufzeiten für das Anlernen von KI-Modellen.

Deep Learning GPU Benchmarks 2020

In diesem Artikel wird ein Überblick über die Deep-Learning Leistung aktueller High-End-GPUs gegeben. Enthalten sind die neuesten Angebote von NVIDIA - die Ampere GPU-Generation. Auch die Leistung von Multi-GPU-Setups, wie z.B. einer quad RTX 3090-Konfiguration, wird bewertet.

Deep Learning GPU Benchmarks 2019

Wie komme ich zu effektiven Turnaround-Zeiten in meinen Machine-Learning Projekten? In diesem Artikel wird ein Überblick über die Deep-Learning Leistung aktueller in diesem Bereich eingesetzter High-End-GPUs gegeben.

CLOUD VS. ON-PREMISE - Total Cost of Ownership Analyse

Deep Learning Anwendungen erfordern in der Entwicklung und im Betrieb leistungsstarke HPC-Systeme, deren Miete in der Cloud im Langzeitbetrieb sehr teuer werden kann. Welche Infrastruktur bietet den besten Kompromiss zwischen Time-to-Solution, Cost-to-Solution und Verfügbarkeit der Ressourcen?