Zusammenfassung - ApproxGNN: Ein vortrainiertes GNN für Parametervorhersagen in der Designraumsuche für Annäherungsrechnung

Titel
ApproxGNN: Ein vortrainiertes GNN für Parametervorhersagen in der Designraumsuche für Annäherungsrechnung

Zeit
2025-07-22 09:24:13

Autor
{"Ondrej Vlcek","Vojtech Mrazek"}

Kategorie
{cs.AR}

Link
http://arxiv.org/abs/2507.16379v1

PDF Link
http://arxiv.org/pdf/2507.16379v1

Zusammenfassung

ApproxGNN ist ein neuer Ansatz zur Vorhersage der Qualität der Ergebnisse (QoR) und der Hardwarekosten (HW-Kosten) von approximationellen Beschleunigern mittels Grapheneuralnetworks (GNNs). Diese Forschung ist entscheidend für den Prozess der Designraum-Exploration (DSE) in approximationeller Computierung, wo Designer optimale Konfigurationen von approximationellen Komponenten innerhalb von Beschleunigern anstreben, um Genauigkeit und Energieeffizienz auszugleichen. Die Beschränkungen bestehender Methoden, wie das necessity zur Neuausbildung für jede neue Schaltungskonfiguration, begrenzte Datensätze und die manuelle Merkmalsextraktion, haben die Entwicklung von ApproxGNN motiviert. Dieses Papier präsentiert folgende Beiträge: 1. Eine neue Komponentenmerkmalsextraktionsmethode auf Basis gelernter EMBEDDINGS, die die funktionalen Eigenschaften approximationeller Komponenten effektiver als traditionelle Fehlermetriken einfängt. 2. Ein Verilog-Parser für GNNs, der Verilog-Code in die gewünschte Graphendarstellung umwandelt und verschiedene Arten von Beschleunigern unterstützt. 3. Eine neue Methode zur Erstellung von Graphen synthetischer Grafikkernschaltungen, die die Erstellung umfassender Trainingsdatensätze ermöglicht. 4. Ein vorausbefülltes universelles Modell zur Merkmalsextraktion aus approximationellen Komponenten, das auf verschiedene Aufgaben angewendet werden kann, ohne Neuausbildung, und die Übertragungsleistung über traditionelle Fehlermetriken verbessert. Die vorgeschlagene Methodik besteht aus den folgenden Schritten: 1. **Datensatzgenerierung**: Erzeugen Sie Verilog-Beschreibungen von approximationellen Beschleunigern mit verschiedenen Konfigurationen und Komponentenkombinationen. 2. **Graphtransformierung**: Transformieren Sie die Verilog-Beschreibungen in eine direkte nichtzyklische Graphendarstellung, bei der Knoten Komponenten und Kanten Signalverbindungen darstellen. 3. **Modelltraining**: Trainieren Sie ein Komponenten-Embedding-Modell, um Merkmalsrepräsentationen aus approximationellen Komponenten zu generieren und zwei Vorhersagemodelle, um QoR und HW-Kosten basierend auf den Embeddings und der Schaltungsdoktrin zu schätzen. 4. **Designraum-Exploration**: Nutzen Sie die trainierten Modelle als Stellvertreter-Evaluatoren, um DSE zu leiten und optimale Zuweisungen approximationeller Komponenten zu den Beschleunigern zu identifizieren. Experimentelle Ergebnisse zeigen, dass die Embeddings von ApproxGNN die Vorhersagegenauigkeit um 50% im Vergleich zu konventionellen Methoden verbessern und eine durchschnittliche Vorhersagegenauigkeit um 30% besser als statistische Maschinenlernansätze erreichen, ohne fein abgestimmt zu werden, und um 54% besser mit schnellem Feintuning. Darüber hinaus löst die vorgeschlagene Methode effektiv die Herausforderung der Wissensübertragung zwischen verschiedenen Schaltungsdesigns, ohne teure Neuausbildung zu erfordern. Die open-source Bibliothek, die den Verilog-Parser, den Datensatz und die resultierenden Modelle enthält, ist unter https://github.com/ehw-fit/approx-gnn erhältlich und fördert weitere Forschung in diesem Bereich. Zusammenfassend lässt sich sagen, dass ApproxGNN ein vielversprechender Ansatz zur Gestaltung energieeffizienter approximationeller Beschleuniger ist, indem er die effiziente DSE mittels GNNs ermöglicht. Seine Fähigkeit, die Vorhersagegenauigkeit und die Übertragbarkeit zu verbessern, macht ihn zu einem wertvollen Werkzeug für Forscher und Designer im Bereich der approximationellen Computierung.


Empfohlene Papiere

Über die Komplexität des Skolemproblems bei niedrigen Ordnungen

CUDA-L1: Verbesserung der CUDA-Optimierung durch kontrastives Reinforcement Learning

Nicht einmal metastabil: Kubisches Doppel-Diamant in Diblock-Kopolymerschmelzen

Modulation der Eigenschaften von PEDOT durch Cobaltferrit-Nanopartikel: Morphologie, Konjugationslänge, Dotierungsgrad, Struktur und elektrische Leitfähigkeit

Godement--Jacquet-L-Funktion und homologische theta-Lifting

Adaptive Attention Residual U-Net zur Segmentierung von gekrümmten Strukturen in Fluoreszenzmikroskopien und biomedizinischen Bildern

Unausgewogen im Gleichgewicht: Online-Konzeptausgewogenheit in Generationsmodellen

Parameterisierung der FPT für Bruchzahl- und allgemeinerer Hyperbaumweite

Fisher-Score-Abgleich für simulationsbasierte Prognose und Inferenz

Die ROI-Steigerung von Cyberbedrohungsintelligenz quantifizieren: Ein datengetriebener Ansatz