Résumé - Ironman : Accélérer l'extension de la transmission oblivieuse pour l'IA à la protection de la vie privée avec le traitement en mémoire proche
Titre
Ironman : Accélérer l'extension de la transmission oblivieuse pour l'IA à la protection de la vie privée avec le traitement en mémoire proche
Temps
2025-07-22 09:35:59
Auteur
{"Chenqi Lin","Kang Yang","Tianshi Xu","Ling Liang","Yufei Wang","Zhaohui Chen","Runsheng Wang","Mingyu Gao","Meng Li"}
Catégorie
{cs.AR}
Lien
http://arxiv.org/abs/2507.16391v2
PDF Lien
http://arxiv.org/pdf/2507.16391v2
Résumé
Ce document propose Ironman, un accélérateur novateur de transfert obvie (OT) conçu pour améliorer considérablement l'efficacité du OT et le cadre global d'apprentissage automatique préservant la vie privée (PPML). Les auteurs observent que le cadre actuel de OT, en particulier les opérations SPCOT et LPN, sont les principaux goulets d'étranglement en raison de leur forte dépendance aux calculs CPU et à la bande passante de la mémoire. Pour remédier à cela, Ironman utilise une architecture de traitement près de la mémoire (NMP) équipée d'un cache côté mémoire et de tri d'indices pour améliorer la bande passante effective de la mémoire et réduire la latence.
Les fonctionnalités clés d'Ironman incluent :
- **Expansion du GGM arithmétique à plusieurs valeurs en tenant compte du matériel** : Cela réduit la charge de travail de calcul de SPCOT, ce qui est crucial pour l'accélération matérielle. Il est applicable à des environnements matériels avec et sans instructions AES-NI.
- **Architecture NMP** : Cette architecture utilise le cache côté mémoire et le tri d'indices pour améliorer la bande passante effective pour les opérations LPN, qui sont limitées par la bande passante de la mémoire en raison de motifs d'accès à la mémoire irréguliers.
- **Architecture unifiée** : Cette architecture prend en charge les rôles d'envoyeur et de destinataire dans OTE, permettant un basculement de rôle fluide et permettant l'utilisation du même matériel pour les protocoles d'envoyeur et de destinataire.
- **Parallélisme au niveau de rang** : Cela améliore la parallélisation et réduit la latence en effectuant des calculs directement sur les données récupérées à partir des rangs activés.
Le document démontre que Ironman atteint une amélioration significative du débit de OT et de la latence globale du cadre PPML. En particulier :
- **Débit de OT** : Ironman atteint une amélioration de 39,2–237,4× dans le débit de OT par rapport à l'implémentation CPU à fil complet.
- **Latence du cadre PPML** : Ironman montre une réduction de 2,1–3,4× dans la latence de bout en bout pour les modèles CNN et Transformer.
Les auteurs ont également mené des expériences sur divers cadres et modèles PPML, démontrant que Ironman offre des améliorations de performance significatives dans différents scénarios. Les résultats mettent en lumière l'efficacité d'Ironman dans l'accélération du OT et l'amélioration de l'efficacité des cadres PPML.
Articles Recommandés
Procédure de renforcement de la recherche par rayon des attaques avec étiquette dure à l'aide de prédictions basées sur le transfert
Sur certaines propriétés intégrales des dimensions dans les catégories de fusion d'Isaacs
Règles des sommes en liquides quantiques
Flattening en $L^2$ des mesures auto-similaires sur des courbes non-dégénérées
Un cadre d'inférence DNN de bout en bout pour le MPSoC neuromorphique SpiNNaker2
Sparsification forte pour 1-in-3-SAT via le théorème de Freiman-Ruzsa polynomial
Observation du décalage de bord induit par la supraconductivité dans les films minces de $\mathrm{La}_{3}\mathrm{Ni}_{2}\mathrm{O}_{7}$ dopés au strontium
Réseau de neurones convolutifs quantiques hybrides assisté par l'assignation de pilotes dans les systèmes Cell-Free Massive MIMO
Composants connexes de l'espace des représentations de type préservé
Cadre de Phase pour les Réseaux Neuraux Optiques Quantiques à Échelle Intermédiaire Bruyants