Résumé - Les modèles de rotation universels sont des approximateurs universels en apprentissage automatique.

Titre
Les modèles de rotation universels sont des approximateurs universels en apprentissage automatique.

Temps
2025-07-10 11:50:41

Auteur
{"Tobias Reinhart","Gemma De les Coves"}

Catégorie
{cond-mat.dis-nn}

Lien
http://arxiv.org/abs/2507.07669v1

PDF Lien
http://arxiv.org/pdf/2507.07669v1

Résumé

L'article "Universal Spin Models are Universal Approximators in Machine Learning" de Tobias Reinhart et Gemma De les Coves explore la relation entre les modèles de spin universels en physique et les approximateurs universels en apprentissage automatique. Il démontrait que certains modèles de spin, utilisés pour décrire le comportement des systèmes complexes en physique, sont également capables d'approximer des distributions de probabilité en apprentissage automatique avec une précision arbitraire. Les auteurs commencent par définir les modèles de spin, qui sont des généralisations du modèle d'Ising, et les systèmes de spin, qui consistent en des spins interagissant. Ils introduisent ensuite le concept de simulations, qui sont des transformations de systèmes de spin qui préserveront leur secteur d'énergie basse. Un modèle de spin universel est celui qui peut simuler tout autre modèle de spin dans son secteur d'énergie basse. Les auteurs prouvent que les modèles de spin universels sont des approximateurs universels de distributions de probabilité. Cela signifie qu'ils peuvent approximer toute distribution de probabilité sur les configurations de spin avec une précision arbitraire. La caractérisation des modèles de spin universels, qui implique la complétude de drapeau et la clôture, s'étend à la caractérisation des approximateurs universels pour les modèles basés sur l'énergie, tels que les machines à Boltzmann restreintes (RBMs) et les machines à Boltzmann profondes (DBMs). Les auteurs appliquent leurs résultats aux RBMs et aux DBMs, en prouvant que les deux sont des approximateurs universels. Ils étendent également les résultats aux réseaux de croyance profonds (DBNs), démontrant que les DBNs de largeur constante sont des approximateurs universels. Cela implique que les DBNs peuvent simuler des distributions de probabilité arbitraires sur les configurations de n spins. Le papier met en lumière la connexion intime entre les statements d'universalité dans les modèles de spin et certains modèles d'apprentissage automatique. Il suggère que les statements d'universalité découverts dans différents domaines peuvent être liés et peuvent être transférés d'un domaine à l'autre. Cela ouvre de nouvelles voies de recherche, y compris l'extension des résultats à des modèles de spin plus généraux et d'autres modèles d'apprentissage automatique, et l'exploration de l'efficacité des RBMs et des DBMs dans l'approximation des distributions de probabilité.


Articles Recommandés

États de chaînes piégés dans la géométrie de l'horloge noire AdS$_5$ : Une voie vers le rayonnement de Hawking

Dispositifs de mémoire non volatils basés sur des hétérostructures de graphène avec programmation de la porte flottante supérieure

Gemini 2.5 Pro capable de remporter l'or à l'IMO 2025

Algorithmes efficaces pour des quantités pertinentes du modèle de dynamique des opinions de Friedkin-Johnsen

Exploration du matière sombre non froide dans un scénario d'énergie sombre dynamique avec les données DR2 du télescope DESI

Géodésiques Morse sous-linéaires et Percolation du premier passage

Matching des flux en rencontre avec la biologie et la biotechnologie : Une enquête

densité de Cauchy

WIP : Transformez les puces fausses en opportunités d'apprentissage

La fonction de distribution d'équilibre pour les systèmes fortement non linéaires