Kontakt Support Mieten Beratung LinkedIn

NVIDIA

DGX Station

Deskside AI Supercomputer mit NVIDIA GB300 Superchip: Entwickle und betreibe große KI-Modelle lokal mit bis zu 748 GB Speicher und extrem hoher Bandbreite.

Deskside AI Supercomputer · GB300 Grace Blackwell Ultra

NVIDIA DGX Station™ – Rechenzentrums‑KI direkt am Schreibtisch

Die neue DGX Station bringt einen der derzeit stärksten NVIDIA‑Superchips in ein deskside‑System: Entwickle, fine‑tune und betreibe sehr große Modelle lokal – inklusive langlaufender Agenten – und skaliere Workloads nahtlos Richtung Rechenzentrum oder Cloud. Im Fokus stehen maximale Memory‑Kapazität, hohe Bandbreite und ein vorkonfigurierter Full‑Stack für produktive KI‑Workflows.

Modelle bis 1T Parameter

Für Teams, die jenseits klassischer Workstation‑Limits arbeiten: lokale Entwicklung und Ausführung in einer Größenordnung, die bislang häufig nur über Cluster erreichbar war.

748 GB coherenter Speicher

Ein kohärenter Memory‑Pool aus 252 GB HBM3e (GPU) + 496 GB LPDDR5X (CPU) reduziert CPU↔GPU‑Flaschenhälse und beschleunigt große Trainings‑ und Inferenz‑Workloads.

800 Gb/s Networking

Mit NVIDIA ConnectX‑8 SuperNIC: extrem hohe Bandbreite, niedrige Latenz und die Option, bis zu zwei DGX Stations zu koppeln – für mehr Modellkapazität und Performance.

NVIDIA DGX Station (GB300) – deskside AI Supercomputer (Beispielabbildung)
Hinweis: DGX Station ist ein OEM‑Programm (z. B. MSI, Dell, ASUS, GIGABYTE, HP, Supermicro). Gehäuse, Kühlung und einzelne Options‑Details können je nach Anbieter variieren.

Was ist die neue DGX Station – und für wen lohnt sie sich?

Die DGX Station richtet sich an KI‑Teams, die große Modelle und datenintensive Pipelines lokal entwickeln möchten – ohne typische Wartezeiten auf geteilte Cluster‑Ressourcen und ohne zwingende Cloud‑Abhängigkeit. Sie kombiniert einen Blackwell‑Ultra‑GPU‑Teil mit einer Grace‑CPU in einem Superchip‑Design, optimiert für KI‑Training, Inferenz, Simulation und moderne Agentic‑Workflows.

Der technische Kern: GB300 Superchip + NVLink‑C2C

Im Zentrum steht der NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip: CPU und GPU sind per NVLink‑C2C (900 GB/s) kohärent verbunden. Das Ziel ist ein schneller, gemeinsamer Adressraum für Daten – entscheidend, wenn Modelle, Kontextfenster, Embeddings oder Simulationsdaten sehr groß werden.

  • CPU: Grace mit 72 Arm Neoverse V2 Cores (Workstation‑/Server‑Klasse)
  • GPU: NVIDIA Blackwell Ultra (Tensor Cores mit NVFP4‑Support)
  • Coherent Memory: 748 GB (252 GB HBM3e + 496 GB LPDDR5X)
  • AI Compute: bis zu 20 petaFLOPS (Tensor‑Core, je nach Modus/Annahme)

I/O, Erweiterung und Betrieb

Neben dem Superchip‑Kern ist die Plattform auf produktive Integration ausgelegt: schnelle NVMe‑Storage‑Pfade, mehrere PCIe‑Slots für Erweiterungen (z. B. Display‑/I/O‑Optionen) sowie ein Management‑Pfad (BMC) für professionellen Betrieb im Enterprise‑Umfeld.

Highlights

Technologische Features, die in der Praxis zählen

Die DGX Station ist konsequent darauf ausgelegt, große KI‑Workloads lokal zu ermöglichen – mit Memory‑Skalierung, Bandbreite, Software‑Stack und Sicherheitskonzepten für moderne Agenten.

NVLink‑C2C · 900 GB/s

Hohe CPU↔GPU‑Bandbreite mit kohärentem Zugriff – ideal für große Modelle, RAG‑Pipelines, Finetuning‑Workloads und datenintensive Simulation.

ConnectX‑8 · bis 800 Gb/s

Dual‑QSFP112‑Pfad für skalierbare Datenbewegung. Optional: zwei DGX Stations koppeln, um Modellgröße und Durchsatz weiter zu erhöhen.

MIG · bis zu 7 Instanzen

Teile die GPU in mehrere isolierbare Instanzen auf: parallele Inferenz/Entwicklung, mehrere Modelle gleichzeitig, bessere Auslastung für Teams.

Vorkonfigurierter KI‑Stack

Ubuntu mit NVIDIA AI Developer Tools und zentralen CUDA‑X Bibliotheken – schneller Start, weniger Integrationsaufwand, reproduzierbare Setups.

NVFP4 & Blackwell Tensor Cores

Optimiert für moderne Inferenz und große Modellkapazitäten durch 4‑Bit‑AI (NVFP4), ohne die Plattform auf reine Experimente zu reduzieren.

Optional: RTX PRO für Visualisierung

Je nach OEM‑Konfiguration kann zusätzlich eine RTX PRO GPU integriert werden – sinnvoll für Simulation, Visualisierung, Digital Twins und „Physical AI“‑Workflows.

Agentic AI: NemoClaw + OpenShell als Sicherheits‑ und Governance‑Basis

Autonome Agenten sind mächtig – und riskant, wenn sie Zugriff auf Filesystem, Netzwerk oder Credentials haben. Mit NVIDIA NemoClaw und OpenShell entsteht ein Stack, der Agenten in isolierten Sandboxes ausführt und über Policies kontrolliert, was ein Agent tun darf. Dadurch können Always‑On‑Workflows, lokale Coding Agents und Automatisierungen mit deutlich mehr Kontrolle betrieben werden.

  • OpenShell: sitzt zwischen Agent und Infrastruktur und erzwingt Policies (Sandbox‑Runtime).
  • NemoClaw: Open‑Source‑Stack für Privacy/Security‑Kontrollen rund um OpenClaw‑Agenten.
  • Enterprise‑Readiness: geeignet für lokale Entwicklung bis hin zu zentralen Deployments – mit denselben Grundbausteinen.

Playbooks: schneller Start mit praxisnahen Workflows

Auf der DGX‑Station‑Playbook‑Plattform finden sich Schritt‑für‑Schritt‑Rezepte, z. B. für MIG‑Setup, NVFP4‑Quantisierung, LLM‑Serving und sichere Agenten in OpenShell‑Sandboxes. Das reduziert die Time‑to‑Value, weil Projekte nicht beim Tooling steckenbleiben.

DGX Station Playbooks ansehen

Use Cases

Typische Einsatzszenarien

Die DGX Station zielt auf Workloads, die in klassischen Workstations schnell an RAM‑, Bandbreiten‑ oder Governance‑Grenzen stoßen – und die von lokaler Entwicklung plus schneller Skalierung profitieren.

LLMs & GenAI

Lokales Fine‑Tuning, Inferenz und Evaluierung großer Modelle – inklusive größerer Kontextfenster, RAG‑Pipelines und mehrstufiger Reasoning‑Workflows.

Data Science im großen Maßstab

Beschleunigte Datenaufbereitung und -analyse, große Daten-Lakes im lokalen Workflow, schnellere Iterationen zwischen Exploration, Feature Engineering und Deployment.

Physical AI & Simulation

Training, Test und Optimierung visueller Agenten sowie Simulations‑Workflows. Optional mit zusätzlicher RTX PRO‑GPU für Visualisierung/Rendering‑nahe Aufgaben.

Technische Kurz‑Spezifikation

Kernwerte der DGX Station Plattform (GB300‑Generation). OEM‑Details (z. B. Storage‑Gen6, Kühlung, TPM/BMC‑Features) können je nach Partnerkonfiguration abweichen.

  • Superchip: NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip
  • CPU: 1× Grace · 72‑Core Arm Neoverse V2
  • GPU: 1× NVIDIA Blackwell Ultra
  • Coherent Memory: 748 GB (252 GB HBM3e + 496 GB LPDDR5X)
  • NVLink‑C2C: 900 GB/s
  • Networking: ConnectX‑8 · bis 800 Gb/s · 2× QSFP112 (400 Gb/s pro Port) + RJ45‑Ports
  • Storage: 4× M.2 (Gen5 laut NVIDIA; OEM‑Varianten teils mit Gen6 NVMe)
  • PCIe: 3 Slots (1× Gen5 x16 + 2× Gen5 x16 mit x8 elektrisch)
  • OS: Ubuntu mit NVIDIA AI Developer Tools
  • MIG: bis zu 7 Instanzen
  • System Power: 1.600 W (plattformspezifisch)

DGX Station GB300 Preisanforderung & Vorbestellung

Wir unterstützen bei Auswahl der OEM‑Konfiguration, Netzwerk‑/Storage‑Design, Secure‑Agent‑Setup (OpenShell/NemoClaw) sowie Integration in bestehende On‑Prem‑, Hybrid‑ oder Cloud‑Strategien.


Weitere Fragen? Wir liefern die Antwort.

Invalid Input
Invalid Input
Invalid Input
Invalid Input
Invalid Input