Zusammenfassung - Ein End-to-End-DNN-Infusionsrahmen für den SpiNNaker2 neuromorphen MPSoC

Titel
Ein End-to-End-DNN-Infusionsrahmen für den SpiNNaker2 neuromorphen MPSoC

Zeit
2025-07-18 08:32:34

Autor
{"Matthias Jobst","Tim Langer","Chen Liu","Mehmet Alici","Hector A. Gonzalez","Christian Mayr"}

Kategorie
{cs.LG,cs.AR,cs.DC}

Link
http://arxiv.org/abs/2507.13736v1

PDF Link
http://arxiv.org/pdf/2507.13736v1

Zusammenfassung

Dieses Papier stellt einen mehrschichtigen Deep Neural Network (DNN)-Scheduling-Framework für das neuromorphe MPSoC SpiNNaker2 vor. Das Framework erweitert den bestehenden OctopuScheduler und ermöglicht die edge-basierte Ausführung großer und komplexer DNNs bis zur Transformer-Skala mithilfe der SpiNNaker2-Plattform. Die Hauptbeiträge des Frameworks sind: 1. Erweiterung des OctopuScheduler um die mehrschichtige Scheduling-Fähigkeit: Dies ermöglicht die Ausführung ganzer Modelle auf dem SpiNNaker2-Chip, ohne dass zusätzliche Interaktion durch den Host über die Initialkonfiguration hinaus erforderlich ist. 2. Selbstständige Iteration über alle DNN-Schichten auf dem Chip, ohne zwischen-Layer-Kommunikation mit dem Host: Dies ermöglicht die effiziente Ausführung großer Modelle, die die verfügbare SRAM auf dem Chip übersteigen. 3. Automatisierter Workflow für Parameterextraktion und 8-bit-Post-Training-Quantisierung aus PyTorch-Modellen: Dies ermöglicht die effiziente Hardwarebeschleunigung von Matrixmultiplikationen auf dem SpiNNaker2 MLA. Das Framework ist in vier Hauptkomponenten organisiert: 1. Globale Konfiguration: Enthält Informationen, die für die Scheduling erforderlich sind, wie die Koordinaten des Schedulers und der Worker sowie die Anzahl der Schichten im Modell. 2. Zeitmessungen: Speichert pro-Schicht-Zeitmessungen für jeden Scheduler und Worker, was eine detaillierte Profilierung der Modellausführung ermöglicht. 3. Schichtkonfigurationen: Jede Schicht ist mit einem strukturierten Konfigurationsblock verbunden, der Metadaten wie den Schichttyp und die Anzahl der zugewiesenen Worker PEs enthält. Dies ermöglicht die effiziente Ausführung verschiedener neuronaler Netzwerkoperationen über mehrere Worker hinweg. 4. Datenspeicher: Speichert die Aktivierungsdaten, d.h. Eingaben, Zwischenwerte und Ausgaben aller Schichten im Modell. Das Framework wurde mit einem einfachen dreischichtigen MLP-Modell getestet, das auf MNIST trainiert wurde. Die Ergebnisse zeigen, dass das Framework niedrigen Scheduling-Overhead erreicht und große Modelle auf dem SpiNNaker2-Chip effizient ausführen kann. Das Framework ist eine wertvolle contribu­tion zum Bereich der neuromorphen Computing und Edge AI, da es die effiziente Deployment großer und komplexer DNNs auf auf SpiNNaker2-basierten Systemen ermöglicht. Dies hat das Potenzial, die Edge-Branche durch die Möglichkeit revolutionärer Infrastruktur-Knoten und die Verringerung des Energieverbrauchs von AI-Arbeitslasten zu verändern.


Empfohlene Papiere

AbGen: Bewertung großer Sprachmodelle im Design und der Bewertung von Entnahmenforschungsstudien für wissenschaftliche Forschung

Ironman: Beschleunigung der Erweiterung des Unwissenheitsübergangs für datenschutzfreundliche KI mit nahezu-Gedächtnis-Verarbeitung

Summenregeln in Quantenflüssigkeiten

Energieeffiziente p-Circuits für generative neuronale Netze

VideoITG: Multimodales Videoverständnis mit instruiertem zeitraumbezogenem Bezug

Bei der Extraktion von Quad-Meshes aus verworrenen Gitter-Preservierungskarten

Geheimnisse aus dem frühen Universum: Der Ringdown primordialer Schwarzer Löcher

Sparsen Autoencodern wird eine interpretierbare Struktur in kleinen Gen-Sprachmodellen enthüllt

Große Lernraten erreichen gleichzeitig Robustheit gegen falsche Korrelationen und Komprimierbarkeit

Probleme der Rand färbe mit verbotenen Mustern und vorgepflanzten Farben