Zusammenfassung - Ironman: Beschleunigung der Erweiterung des Unwissenheitsübergangs für datenschutzfreundliche KI mit nahezu-Gedächtnis-Verarbeitung
Titel
Ironman: Beschleunigung der Erweiterung des Unwissenheitsübergangs für datenschutzfreundliche KI mit nahezu-Gedächtnis-Verarbeitung
Zeit
2025-07-22 09:35:59
Autor
{"Chenqi Lin","Kang Yang","Tianshi Xu","Ling Liang","Yufei Wang","Zhaohui Chen","Runsheng Wang","Mingyu Gao","Meng Li"}
Kategorie
{cs.AR}
Link
http://arxiv.org/abs/2507.16391v2
PDF Link
http://arxiv.org/pdf/2507.16391v2
Zusammenfassung
Dieses Papier stellt Ironman vor, einen neuen Oblivious Transfer (OT)-beschleuniger, der darauf ausgelegt ist, die Effizienz von OT und das gesamte Framework für Privatsphärebewahrende Maschinenlernen (PPML) erheblich zu verbessern. Die Autoren beobachten, dass das aktuelle OT-Framework, insbesondere die SPCOT- und LPN-Operationen, die Hauptbottlenecks sind, da sie stark auf CPU-Rechenleistung und Speicherbandbreite angewiesen sind. Um dies zu lösen, verwendet Ironman eine nahe-Speicher-Verarbeitung (NMP)-Architektur, die mit einem Speicherseitigen Cache und Indexsortierung ausgestattet ist, um die effektive Speicherbandbreite zu verbessern und die Latenz zu reduzieren.
Hauptmerkmale von Ironman umfassen:
- **Hardwarebewusste m-ary GGM Baumverzweigung**: Dies reduziert den Berechnungsaufwand von SPCOT, was für die Hardwarebeschleunigung entscheidend ist. Es ist sowohl für Hardwareumgebungen mit als auch ohne AES-NI-Befehlen anwendbar.
- **NMP Architektur**: Diese nutzt den Speicherseitigen Cache und Indexsortierung, um die effektive Speicherbandbreite für LPN-Operationen zu verbessern, die aufgrund von unregelmäßigen Speicherzugriffsmustern bandbreitengebunden sind.
- **Einheitliche Architektur**: Diese unterstützt sowohl Absender- als auch Empfangsrollen in OTE, ermöglicht reibungslose Rollenwechsel und ermöglicht die Verwendung desselben Hardware für Absender- und Empfangsprotokolle.
- **Rangebene Parallelität**: Dies verbessert die Parallelität und reduziert die Latenz durch direkte Berechnungen auf Daten, die aus aktiven Rängen abgerufen werden.
Das Papier zeigt, dass Ironman eine erhebliche Verbesserung des OT-Durchsatzes und der Latenz des gesamten PPML-Frameworks erzielt. Insbesondere:
- **OT-Durchsatz**: Ironman erreicht eine Verbesserung des OT-Durchsatzes von 39,2–237,4-fach im Vergleich zur vollständigen CPU-Implementierung.
- **PPML-Framework-Latenz**: Ironman zeigt eine Reduzierung der End-to-End-Latenz um 2,1–3,4-fach sowohl für CNN- als auch für Transformer-Modelle.
Die Autoren führten auch Experimente mit verschiedenen PPML-Frameworks und Modellen durch und zeigten, dass Ironman in verschiedenen Szenarien erhebliche Leistungsbesserungen bietet. Die Ergebnisse unterstreichen die Effektivität von Ironman bei der Beschleunigung von OT und der Verbesserung der Effizienz von PPML-Frameworks.
Empfohlene Papiere
RoadBench: Ein Vision-Langage-Basismodell und Benchmark für das Verständnis von Straßenbeschädigungen
Parameterisierung der FPT für Bruchzahl- und allgemeinerer Hyperbaumweite
Über die Wechselwirkung von Kompressibilität und adversärischer Robustheit
VisionThink: Ein intelligentes und effizientes Visionssprachmodell durch Reinforcement Learning
Lokale unvollkommene Rückkopplungssteuerung in nicht-äquilibrium biophysikalischen Systemen, ermöglicht durch thermodynamische Einschränkungen
Starke converse Rate für das asymptotische Hypothesentest in Typ III
In welchem Umfang können öffentliche Aktienindizes statistisch den Verlust des realen Kaufkraftes in komplexen strukturellen Krisen in aufstrebenden Märkten absichern? Eine auf Explainable Machine Learning basierende Bewertung
Spin-nur-Dynamik des mehrspeciesnonreciprokalen Dicke-Modells
Groß angelegte Portfolioberechnung mit variabler neuraler Abkühlung
Eine Methode zur Korrektur der Substruktur von Mehrstrahl-Quellen mittels des Lund-Quellenflächenschemas