Zur Hauptnavigation springen Zur Hauptnavigation springen Zum Inhalt springen Zum Fußbereich springen

ScalNEXT

Technologie:Supercomputing Forschungsbereich:Future Computing

Das Projekt ScalNEXT (Scalable Network-centric EXecuTion) beschäftigt sich mit der Optimierung des Datenmanagements und des Kontrollflusses von Rechenknoten fürs Supercomputing.

Moderne HPC-Systeme sind meist als Cluster-Systeme aufgebaut. Dies bedeutet, dass einzelne und meist völlig unabhängige Knoten mit eigenen Betriebssysteminstanzen nur durch ein grobes Ressourcen- bzw. Jobmanagement-System verbunden und durch ein Netzwerk gekoppelt sind. Die hierzu verwendeten Netzwerke wie z. B. Infiniband, Slingshot oder Tofu bieten dabei oft hohe Bandbreiten, sind aber in ihrer Latenz durch physikalische Größen begrenzt und zudem meist passiv, d. h. sie dienen nur der Kommunikation zwischen den Knoten. Neben den eigentlichen Rechenaufgaben bleiben damit auch Datenmanagement (Partitionierung, verteilte Modelle, etc.) und Steuerung des Kontrollflusses (Nachrichtenmuster, Abhängigkeiten, Task- und Thread-Management, etc.) bei den Knoten und damit mit maximaler Distanz verteilt. Letzteres führt zu hohen Latenzen für Management und Kontrollaufgaben, Skalierungsflaschenhälsen auf Grund einer hohen Zahl von aktiven End-Komponenten, sowie zu Kommunikationsflaschenhälsen durch die Notwendigkeit von Synchronisationsnachrichten. Mit steigender Leistungsfähigkeit der Rechenknoten – sowohl bzgl. reiner Rechenleistung als auch Energieeffizienz – wird die Schere zwischen Knoten und Netzwerk immer größer. Dies erhöht bei klassischen HPC-Anwendungen den Druck auf das Netzwerk und führt damit zu Leistungseinbußen. Weiterhin steigert es die Notwendigkeit, Netzwerkbandbreiten z. B. durch kostenintensive Multi-/Many-Rail Anbindungen zu erhöhen. Schon heute bestimmen die Netzwerkkosten dadurch einen beträchtlichen Teil der Gesamtsystemkosten.

Moderne Netzwerke bieten jedoch die Möglichkeit, viele dieser Aufgaben in das Netzwerk zu verlagern und damit zentraler im System zu verankern und Skalierungsprobleme zu umgehen. Diese sogenannten Smart Networks, die rekonfigurierbar und programmierbar sind, kommen schon heute in der modernen Telekommunikation und in Datenzentren, zusammen mit Techniken wie Software Defined Networks (SDNs), zum Einsatz. Im HPC-Bereich sind sie aber bisher kaum vertreten. Um dies zu ermöglichen, müssen noch mehrere Herausforderungen gelöst werden. Dazu gehören die sichere Virtualisierung der Netzwerkressourcen auf Benutzerebene, die Entwicklung von einfachen und zu bestehenden Programmieransätzen passenden APIs und die Umgestaltung von Betriebssystemen mit globalen, netzwerkübergreifenden Ansätzen.

Das SCALNEXT-Projekt greift diese Herausforderungen auf und entwickelt neue Technologien, um den Einsatz von Smart Networks im HPC-Bereich zu ermöglichen. Das Ziel von SCALNEXT ist die Steigerung der Skalierbarkeit von HPC-Systemen und Anwendungen. Wir werden Basistechnologien entwickeln, die die Auslagerung von Kernfunktionalität des Datenmanagements und des Kontrollflusses von Knoten weg in das Netzwerk (auf NICs und Switches) ermöglichen, und wir werden sie dort auf die drei Kernanwendungsbereiche Modellierung und Simulation (ModSim), Datenanalyse und I/O (HPDA) und Maschinelles Lernen (ML/KI) anwenden. In allen drei Bereichen werden damit zum einen Rechenknoten entlastet, die dann voll auf die nötigen Berechnungen angesetzt werden können; zum anderen werden Management- und Kontrollaufgaben auf die enger verknüpften und zentraler gelegenen Netzwerkressourcen übertragen. Dadurch entsteht eine deutliche Steigerung der Berechnungseffizienz in den Knoten, die mögliche Auslagerung von Berechnungen in die Nähe der Daten, sowie eine deutliche Steigerung der Skalierbarkeit (z.B., weil statt einer großen Anzahl von parallelen Prozessen eine deutlich kleinere Anzahl von NICs oder Switches die Aufgaben übernehmen).

Am LRZ werden die im Projekt entwickelten Techniken und die assoziierten Skalierungsgewinne direkten Einfluss auf zukünftige Systeme wie das ExaMUC Exascale-System nehmen.

Start dateOct 1, 2022
End dateSep 30, 2025
Funding AgencyBMBF
PartnersTechnische Universität München (Konsortialleiter), 
Karlsruher Institut für Technologie (KIT), 
Johannes Gutenberg-Universität Mainz, 
Rheinisch-Westfälische Technische Hochschule Aachen, 
APS Networks (bis März 2024)
Total Budgettba