Resumen - Un Marco de Inferencia de DNN de extremo a extremo para el MPSoC neuromórfico SpiNNaker2

Título
Un Marco de Inferencia de DNN de extremo a extremo para el MPSoC neuromórfico SpiNNaker2

Tiempo
2025-07-18 08:32:34

Autor
{"Matthias Jobst","Tim Langer","Chen Liu","Mehmet Alici","Hector A. Gonzalez","Christian Mayr"}

Categoría
{cs.LG,cs.AR,cs.DC}

Enlace
http://arxiv.org/abs/2507.13736v1

PDF Enlace
http://arxiv.org/pdf/2507.13736v1

Resumen

Este documento introduce un marco de programación de red neuronal profunda (DNN) multi-capa para el MPSoC neuromórfico SpiNNaker2. El marco amplía el existente OctopuScheduler y permite la ejecución basada en la borde de DNNs grandes y complejos hasta la escala del transformador utilizando la plataforma SpiNNaker2. Las principales contribuciones del marco son: 1. Ampliación de OctopuScheduler hacia la programación de múltiples capas: Esto permite la ejecución de modelos completos en el chip SpiNNaker2, sin la necesidad de interacción adicional por parte del anfitrión más allá de la configuración inicial. 2. Iteración autónoma en el chip sobre todas las capas del DNN sin comunicación entre capas del anfitrión: Esto permite una ejecución eficiente de modelos grandes que superan la SRAM disponible en el chip. 3. Flujo automático para la extracción de parámetros y cuantificación pós-entrenamiento de 8 bits desde modelos PyTorch: Esto permite una aceleración de hardware eficiente de multiplicaciones de matrices en el MLA de SpiNNaker2. El marco está organizado en cuatro componentes principales: 1. Configuración global: Contiene información necesaria para la programación, como las coordenadas del programador y los trabajadores, y el número de capas en el modelo. 2. Mediciones de tiempo: Almacena mediciones de tiempo por capa para cada programador y trabajador, permitiendo un perfilado detallado de la ejecución del modelo. 3. Configuraciones de capa: Cada capa se asocia con un bloque de configuración estructurada, que incluye metadatos como el tipo de capa y el número de PE de trabajador asignados. Esto permite una ejecución eficiente de diversas operaciones de red neuronal en múltiples trabajadores. 4. Memoria de datos: Almacena los datos de activación, es decir, las entradas, valores intermedios y salidas de todas las capas en el modelo. El marco se prueba utilizando un modelo MLP de tres capas simple entrenado en MNIST. Los resultados muestran que el marco alcanza un bajo costo de programación y puede ejecutar eficientemente modelos grandes en el chip SpiNNaker2. El marco es una contribución valiosa al campo de la computación neuromórfica y la IA en la borde, ya que permite la implementación eficiente de DNNs grandes y complejos en sistemas basados en SpiNNaker2. Esto tiene el potencial de revolucionar la industria del borde al permitir nodos de infraestructura más inteligentes y reducir la huella energética de las cargas de trabajo de IA.


Artículos Recomendados

MOFCO: Descarga de Tareas Consciente de la Movilidad y la Migración en Entornos de Computación en Niebla de Tres Capas

En la Dinámica No Lineal de un Sistema Magnético No Ideal con Aleación de Memoria de Forma para la Generación de Energía Utilizando los Enfoques del Exponente de Incertidumbre y la Entropía del Boceto de Atracción

Dinámica no lineal de haces de partículas individuales

Complejos simpliciales determinísticos

Interiores de árboles de distancia sobre conjuntos de Cantor delgados

Vecchia aproximó los procesos gaussianos heteroscedásticos bayesianos

VideoITG: Entendimiento Multimodal de Vídeos con Anclaje Temporal Instructivo

Aplanamiento $L^2$ de Medidas Auto-similares en Curvas No-degeneradas

El impacto de la mezcla de lenguas en la razón de los modelos de lenguaje bilingües

Transiciones de fase y rompimiento espontáneo de simetría en la teoría renormalizada de Ginzburg-Landau