Zusammenfassung - Universelle Drehmodell sind universelle Approximierer im maschinellen Lernen.
Titel
Universelle Drehmodell sind universelle Approximierer im maschinellen Lernen.
Zeit
2025-07-10 11:50:41
Autor
{"Tobias Reinhart","Gemma De les Coves"}
Kategorie
{cond-mat.dis-nn}
Link
http://arxiv.org/abs/2507.07669v1
PDF Link
http://arxiv.org/pdf/2507.07669v1
Zusammenfassung
Das Papier "Universal Spin Models are Universal Approximators in Machine Learning" von Tobias Reinhart und Gemma De les Coves untersucht die Beziehung zwischen universellen Spin-Modellen in der Physik und universellen Approximierern in der Maschinenlernen. Es zeigt, dass bestimmte Spin-Modelle, die zur Beschreibung des Verhaltens komplexer Systeme in der Physik verwendet werden, auch in der Maschinenlernen Wahrscheinlichkeitsverteilungen mit beliebiger Genauigkeit annähern können.
Die Autoren beginnen damit, Spin-Modelle, die als Generalisierungen des Ising-Modells betrachtet werden, und Spin-Systeme, die aus interagierenden Spins bestehen, zu definieren. Anschließendintroduzieren sie den Begriff der Simulation, der Transformationen von Spin-Systemen bezeichnet, die ihren Energiesektor erhalten. Ein universelles Spin-Modell ist eines, das jedes andere Spin-Modell in seinem Energiesektor simulieren kann.
Die Autoren beweisen, dass universelle Spin-Modelle universelle Approximierer von Wahrscheinlichkeitsverteilungen sind. Dies bedeutet, dass sie jede Wahrscheinlichkeitsverteilung über Spin-Konfigurationen mit beliebiger Genauigkeit annähern können. Die Charakterisierung universeller Spin-Modelle, die flag completeness und closure umfasst, erstreckt sich auf die Charakterisierung universeller Approximierer für energiebasierte Modelle, wie z.B. beschränkte Boltzmann-Maschinen (RBMs) und tiefe Boltzmann-Maschinen (DBMs).
Die Autoren wenden ihre Ergebnisse auf RBMs und DBMs an und beweisen, dass beide universelle Approximierer sind. Sie erweitern die Ergebnisse auch auf tiefe Glaubwürdigkeitsnetze (DBNs) aus, indem sie zeigen, dass DBNs von konstanter Breite universelle Approximierer sind. Dies impliziert, dass DBNs beliebige Wahrscheinlichkeitsverteilungen über Konfigurationen von n Spins simulieren können.
Das Papier hebt die enge Verbindung zwischen Universitätsaussagen in Spin-Modellen und einigen Maschinenlernmodellen hervor. Es schlägt vor, dass Universitätsaussagen, die in verschiedenen Bereichen entdeckt werden, miteinander in Beziehung stehen und zwischen ihnen übertragen werden können. Dies eröffnet neue Forschungspfade, einschließlich der Erweiterung der Ergebnisse auf allgemeinere Spin-Modelle und andere Maschinenlernmodelle sowie der Untersuchung der Effizienz von RBMs und DBMs bei der Annäherung an Wahrscheinlichkeitsverteilungen.
Empfohlene Papiere
CRAFT: Latenz- und Kostenbewusstes genetisches Framework für Knotenplatzierung in Edge-Fog-Umgebungen
In-situ Impedanzspektroskopietests von Li$_{4-x}$Ge$_{1-x}$P$_x$O$_4$ als potenzieller Festkörperelektrolyt für Mikro-Li-Ionenbatterien
Variable Annuitäten: Ein näherer Blick auf Ratchett-Garantien, Hybridvertragsdesigns und Besteuerung
Der Emotion-Memory-Link: Haben Merkmale der Beherrschbarkeit Bedeutung für intelligente Systeme?
Ein umfassendes Bewertungsframework zur Untersuchung der Auswirkungen von Gesichtsfilters auf die Genauigkeit der Gesichtserkennung
Eine umfassende Studie über Bipolaronsupraleitung in dreieckigen Gittern
Pseudozufälligkeit von Expander-Walks durch Fourieranalyse auf Gruppen
Kubo-Martin-Schwinger-Beziehung für Energietypische Zustände quantenmechanischer Vielkörpersysteme mit SU(2)-Symmetrie
MODA: Ein einheitliches 3D-Diffusionsrahmenwerk für vielfältige, zielorientierte molekulare Generierung
Ausgewählte Messtechnik der Quantum-Hall-Dispersions in Randzuständen