Résumé - Un Cadre de Minimisation du Risque Empirique Unifié pour la Supervision Faible Flexible des N-Tuples

Titre
Un Cadre de Minimisation du Risque Empirique Unifié pour la Supervision Faible Flexible des N-Tuples

Temps
2025-07-10 13:54:59

Auteur
{"Shuying Huang","Junpeng Li","Changchun Hua","Yana Yang"}

Catégorie
{stat.ML,cs.LG}

Lien
http://arxiv.org/abs/2507.07771v1

PDF Lien
http://arxiv.org/pdf/2507.07771v1

Résumé

L'article de Shuying Huang, Junpeng Li, Changchun Hua et Yana Yang présente un cadre unifié pour l'apprentissage supervisé de N-tuiles faiblement supervisées, visant à réduire les coûts d'annotation dans l'apprentissage supervisé. Le cadre utilise la minimisation du risque empirique (ERM) et intègre systématiquement les données non étiquetées au point pour améliorer les performances d'apprentissage. Les auteurs unifient d'abord les processus de génération des données des N-tuiles et des données non étiquetées au point sous une formulation probabiliste partagée. Cette vue unifiée leur permet de dériver un estimateur de risque empirique non biaisé qui généralise une large classe de modèles N-tuiles existants. Ils établissent ensuite une borne d'erreur de généralisation pour une prise en charge théorique. Pour démontrer la flexibilité du cadre, les auteurs l'instancient dans quatre scénarios faiblement supervisés représentatifs : l'apprentissage des comparaisons N-tuiles (NT-Comp), l'apprentissage des similarités N-tuiles et non étiquetées (NSU), l'apprentissage des N-tuiles de classes mélangées et non étiquetées (MNU) et l'apprentissage des N-tuiles non toutes négatives et non étiquetées (NposU). Chacun de ces scénarios peut être récupéré comme une cas spécial du modèle général. Les auteurs abordent également les problèmes de surapprentissage dus aux termes de risque négatifs en adoptant des fonctions de correction pour ajuster le risque empirique. Des expériences extensives sur des ensembles de données de référence valident l'efficacité du cadre proposé et montrent que l'utilisation des données non étiquetées au point améliore constamment la généralisation dans diverses tâches d'apprentissage N-tuiles. Les contributions principales de l'article sont : 1. Un cadre N-tuile unifié qui modélise divers scénarios de supervision faible en spécifiant des contraintes de label dépendantes de la tâche sur l'espace de label complet des 2N N-tuiles. Cette formulation englobe les méthodes existantes (par exemple, NT-Comp, NSU) et généralise naturellement à de nouveaux environnements (MNU, NposU). 2. Des garanties théoriques pour le modèle unifié et ses cas spéciaux en utilisant la complexité de rademacher. Ces résultats confirment la cohérence statistique de l'approche et fournissent des insights théoriques sur l'apprentissage sous des contraintes de supervision faible. 3. Une validation empirique sur des ensembles de données de référence pour diverses tâches de supervision faible, démontrant l'efficacité et la généralisabilité supérieure du cadre proposé. Le cadre unifié offre une approche conceptuellement simple mais puissante pour l'apprentissage faiblement supervisé des N-tuiles avec des garanties de apprentissage fortes. Il fournit une méthode pratique et polyvalente pour gérer les structures N-tuiles complexes dans les applications réelles et ouvre la voie pour des recherches futures sur le déploiement du cadre dans des environnements plus complexes.


Articles Recommandés

SynC : Refinement du dataset de captions d'images synthétiques avec une correspondance un à plusieurs pour le captioning d'images sans apprentissage préalable

Commande selon la taille des disques dans un canal étroit

Schéma de compilation quantique à l'état chiffré basé sur l'obfuscation de la circuit quantique

compromis entre statistique et informatique provenant de la complexité NP-dure

TOI-1259Ab : Une Jupitérische chaude en orbite autour d'une binaire blanche naine K est sur une orbite bien alignée.

Un cadre bayésien pour l'association des sources des CRUHA et l'inférence des paramètres

Simuler l'évolvabilité comme algorithme d'apprentissage : Enquêtes empiriques sur la sensibilité aux distributions, la robustesse et les compromis liés aux contraintes

Les modèles de rotation universels sont des approximateurs universels en apprentissage automatique.

Envolu de conjonctions, variétés tordues et arbres cliques-conteneurs

Critères simples pour les singularités rationnelles supérieures