Informationen zur Zentrenauswahl
Alle NHR-Zentren verfügen über aktuelle HPC-Hardware und bieten beste Bedingungen für gut skalierende Anwendungen. Im Folgenden eine Kurzbeschreibung der Ressourcen der Zentren sowie des Beratungsangebots.
Zentrum | Übersicht | Details | Hinweise zur Beantragung |
NHR4CES@RWTH | CLAIX-2023 besteht im HPC-Segment aus 632 Rechenknoten mit je 2x Intel Sapphire Rapids 48-Core CPUs. Hierbei haben 470 Knoten 256 GB, 160 Knoten 512 GB und zwei Knoten 1024 GB Hauptspeicher. Zusätzlich gibt es im ML-Segment 52 Knoten mit je 4 NVIDIA H100 GPUs mit je 96 GB HBM2e Speicher und 512 GB Hauptspeicher. Alle Knoten beider Segmente sind mit einem Infiniband NDR Netzwerk gekoppelt.Es gibt ein paralleles Lustre-Dateisystem (29 PB) und ein hochverfügbares GPFS-Dateisystem (3.8 PB). Der Support konzentriert sich auf Methoden und Anwendungen im Ingenieurwesen. | > Details | > Hinweise zur Beantragung |
NHR4CES@TUDa | Die Ausbaustufen von Lichtenberg II bestehen aus 1217 Rechenknoten mit 2x Intel Cascade-Lake AP (96 Kerne) oder 2x Intel Sapphire Rapids (104 Kerne) Prozessoren und jeweils 384-512 GB Hauptspeicher, 4x Big-Memory Knoten mit jeweils 1.5-2.0 TB Hauptspeicher, und 11 Beschleunigerknoten mit insgesamt 16x Nvidia V100 und 40x Nvidia A100 GPUs. Alle Knoten und das Dateisystem (6 PB) sind per EDR/HDR Infiniband verbunden. Der Support konzentriert sich auf Methoden und Anwendungen im Ingenieurwesen. | > Details | > Hinweise zur Beantragung |
NHR@FAU | NHR@FAU betreibt derzeit mehr als 70 000 CPU-Kerne und bietet umfangreiche GPU-Ressourcen für Durchsatzrechnungen sowie moderat parallele Anwendungen (bis 8 GPUs). Verfügbar sind 304 NVIDIA A100 (40/80 GB) sowie 352 NVIDIA A40 Karten; letztere eignen sich insbesondere für Molekulardynamiksimulationen mit Standardpaketen wie GROMACS und AMBER. Die Benutzer:innenunterstützung ist bekannt für ihre Expertise im Bereich des Performance-Engineerings für CPU- und GPU-Knoten sowie iterative Löser. Im Anwendungssupport hat NHR@FAU einen besonderen Fokus auf atomistische Simulationen. | > Details | > Hinweise zur Beantragung |
NHR@Göttingen | Mit dem HPC-System "Emmy" (111.464 Intel CPU-Kerne), der neuen Partition "Grete" (144 NVIDIA A100 GPUs) sowie modernen Datenmanagementkonzepten und Speichersystemen ermöglicht NHR@Göttingen die Ausführung von rechen- und datenintensiven HPC-Anwendungen, z.B. aus den Bereichen Life-Science, Earth-System-Science, Strömungsmechanik (CFD) und Digital Humanities sowie von Anwendungen aus Künstlicher Intelligenz (KI) und Quantum Computing. Das Zentrum bietet außerdem ein umfassendes Beratungsangebot. | > Details | > Hinweise zur Beantragung |
NHR@KIT | NHR@KIT betreibt das System "HoreKa" (60.000 CPU-Cores, 756 NVIDIA A100 GPUs) für hoch parallele (GPU-)Simulationen und die "Future Technologies Partition" mit modernsten Architekturen (ARM-CPUs, AMD-GPUs, Graphcore-Beschleuniger etc.). Es existieren fortschrittliche Möglichkeiten zur Performance- und Energiemessung. Dedizierte Supportstrukturen bedienen die Teilchen- und Astroteilchenphysik, Erdsystemwissenschaften, Ingenieurwesen für Energie und Mobilität, Materialwissenschaft, Software Sustainability und Performance Engineering | > Details | > Hinweise zur Beantragung |
NHR@SW | Mit den beiden HPC-Systemen Goethe-NHR (730 Rechenknoten mit Intel- und AMD-CPU-Partitionen, 864 AMD MI210 GPUs, paralleles Dateisystem mit 2,4 PB) und MOGON NHR (590 Rechenknoten mit insgesamt 75000 AMD EPYC 7713 CPU-Cores, 40 NVIDIA A100 GPUs, paralleles Dateisystem mit 8 PB) bietet NHR@SW den WissenschaftlerInnen umfangreiche Ressourcen für hochparallele und datenintensive Anwendungen u.a. aus den Bereichen Life-Science, Hochenergiephysik und Künstlicher Intelligenz. NHR@SW bietet außerdem ein umfassendes Beratungsangebot. | > Details | > Hinweise zur Beantragung |
NHR@TUD | Für datenintensives HPC steht der Cluster „Barnard“ mit ca. 75.000 Prozessorkernen und 40 PB parallelem Dateisystem zur Verfügung. Der GPU-Cluster „Capella“ stellt mehr als 140 Knoten mit jeweils 4 NVIDIA H100-Beschleunigern und einem schnellen Dateisystem bereit, das für KI-Anwendungen optimiert ist. NHR@TUD setzt sich stark für eine effiziente Ressourcen-Nutzung ein und bietet eine breite Palette von Tools, Beratungs- und Schulungsangeboten, insbesondere für Data Analytics, KI, Life Science und Performance-Optimierung. | > Details | > Hinweise zur Beantragung |
NHR@ZIB | Das NHR@ZIB betreibt das HPC-System „Lise“ mit einer CPU-Partition (121'920 Rechenkerne) für hochparallele Anwendungen und eine GPU-Partition (168 Nvidia A100) für datenintensives Rechnen. Das breite Angebot an Datenspeichertechnologien ermöglicht individuelle Nutzungsprofile bezüglich I/O-Anforderungen. Unsere fachspezifische Beratung unterstützt Forschungsprojekte aus einem breiten Anwendungsspektrum – z. B. Lebenswissenschaften und Erdsystemwissenschaften - sowie KI als Querschnittsmethodik. | > Details | > Hinweise zur Beantragung |
PC2 | Das NHR-Zentrum Paderborn Center for Parallel Computing (PC2) betreibt das HPC-System “Noctua 2” (143.000 CPU-Cores, bis zu 2 TB Neben dem allgemeinen Support für alle Forschungsbereiche kann die Fachberatung des PC2 besonders Forschende aus der Festkörperphysik, | > Details | > Hinweise zur Beantragung |