Résumé - Un cadre d'inférence DNN de bout en bout pour le MPSoC neuromorphique SpiNNaker2

Titre
Un cadre d'inférence DNN de bout en bout pour le MPSoC neuromorphique SpiNNaker2

Temps
2025-07-18 08:32:34

Auteur
{"Matthias Jobst","Tim Langer","Chen Liu","Mehmet Alici","Hector A. Gonzalez","Christian Mayr"}

Catégorie
{cs.LG,cs.AR,cs.DC}

Lien
http://arxiv.org/abs/2507.13736v1

PDF Lien
http://arxiv.org/pdf/2507.13736v1

Résumé

Ce document présente un cadre de planification de réseau neural profond (DNN) multicouche pour le MPSoC neuromorphique SpiNNaker2. Le cadre étend le OctopuScheduler existant et permet l'exécution sur site de DNN grands et complexes, jusqu'à l'échelle des transformateurs, à l'aide de la plate-forme SpiNNaker2. Les principales contributions du cadre sont : 1. Extension du OctopuScheduler vers une planification multicouche : Cela permet l'exécution de modèles complets sur le puce SpiNNaker2, sans nécessiter d'interaction supplémentaire par l'hôte au-delà de la configuration initiale. 2. Itération en standalone sur le puce de toutes les couches du DNN sans communication hôte inter-couche : Cela permet l'exécution efficace de modèles grands qui dépassent la SRAM disponible sur la puce. 3. Flux automatisé pour l'extraction des paramètres et la quantification à 8 bits après l'entraînement à partir de modèles PyTorch : Cela permet une accélération matérielle efficace des multiplications matricielles sur le MLA de SpiNNaker2. Le cadre est organisé en quatre composants principaux : 1. Configuration globale : Contient les informations nécessaires pour la planification, telles que les coordonnées du planificateur et des travailleurs, et le nombre de couches dans le modèle. 2. Mesure du temps : Stocke les mesures de temps par couche pour chaque planificateur et travailleur, permettant un profilage détaillé de l'exécution du modèle. 3. Configurations de couche : Chaque couche est associée à un bloc de configuration structuré, qui inclut des métadonnées telles que le type de couche et le nombre de PEs de travailleur assignés. Cela permet une exécution efficace des opérations de réseau neural diverses sur plusieurs travailleurs. 4. Mémoire de données : Stocke les données d'activation, c'est-à-dire les entrées, les valeurs intermédiaires et les sorties de toutes les couches du modèle. Le cadre est testé à l'aide d'un modèle MLP simple à trois couches formé sur MNIST. Les résultats montrent que le cadre atteint un overhead de planification faible et peut exécuter efficacement de grands modèles sur le puce SpiNNaker2. Le cadre est une contribution précieuse au domaine du calcul neuromorphique et de l'IA de bord, car il permet l'implantation efficace de DNN grands et complexes sur les systèmes basés sur SpiNNaker2. Cela a le potentiel de révolutionner l'industrie de bord en permettant des nœuds d'infrastructure plus intelligents et en réduisant la empreinte énergétique des tâches d'IA.


Articles Recommandés

Violation de l'inégalité de Bell avec des photons non entrelacés

L'hypothèse géométrique P=W et la compactification de Thurston

Mesure de la composition en trois goûts de la composition astrophysique des neutrinos à l'aide des événements contenus dans IceCube

Revisiting la fiabilité dans le cadre du benchmark d'estimation de pose basé sur le raisonnement

Amélioration de la segmentation des images médicales par le biais d'apprentissage prototype adaptatif par exemple supervisé

Analyse thermodynamique des spectres de momentum transversal dans les collisions Pb-Pb à 2.76 TeV : dépendance de la centrality de la température, des paramètres de gel et de l'inextensibilité

Modèle IA Pré-Entraîné Assistant la Prise de Décision En Ligne en Présence de Variables Indépendantes Manquantes : Une Perspective Théorique

Rapidité de la thermalisation profonde computationnelle

Modèles à usage général pour les sciences chimiques

Décomposition en domaine temporel basée sur la dissipativité pour le contrôle optimal des EDP hyperboliques