Zusammenfassung - Gemeinsamer asymmetrischer Verlust für das Lernen mit ruhelosen Labels
Titel
Gemeinsamer asymmetrischer Verlust für das Lernen mit ruhelosen Labels
Zeit
2025-07-23 16:57:43
Autor
{"Jialiang Wang","Xianming Liu","Xiong Zhou","Gangfeng Hu","Deming Zhai","Junjun Jiang","Xiangyang Ji"}
Kategorie
{cs.LG,cs.CV}
Link
http://arxiv.org/abs/2507.17692v1
PDF Link
http://arxiv.org/pdf/2507.17692v1
Zusammenfassung
Das Papier stellt einen neuen Ansatz für das Lernen mit noisy labels namens Joint Asymmetric Loss (JAL) vor. Es adressiert das Problem der Label Noise in tiefen neuronalen Netzen durch die Einführung einer asymmetrischen Loss Funktion und erweitert diese auf ein komplexeres passives Loss Szenario.
### Hauptpunkte:
* **Label Noise**: Label Noise stellt eine erhebliche Herausforderung in realen Datensätzen dar und tritt oft durch menschliche Fehler oder begrenzte Fachkenntnisse auf.
* **Symmetrische Losses**: Frühere Forschungen haben sich auf symmetrische Loss Functions wie Mean Absolute Error (MAE) konzentriert, um Label Noise zu mindern. Allerdings leiden symmetrische Losses unter Underfitting aufgrund ihrer strengen Beschränkungen.
* **Active Passive Loss (APL)**: Das APL Framework kombiniert aktive und passive Losses, um die Optimierungsprozesse beider zu verbessern und die allgemeine Anpassungsleistung zu steigern.
* **Asymmetrische Loss Functions (ALFs)**: ALFs bieten unter weniger strengen Bedingungen eine Noise Toleranz im Vergleich zu symmetrischen Loss Functions. Allerdings sind bestehende ALFs nicht mit dem APL kompatibel.
* **Asymmetrische Mean Square Error (AMSE)**: Das Papier schlägt AMSE vor, eine neue asymmetrische passive Loss Funktion, die die asymmetrische Bedingung erfüllt und mit dem APL kompatibel ist.
* **Joint Asymmetric Loss (JAL)**: JAL kombiniert AMSE mit dem APL, um das traditionelle APL Framework zu verbessern, während die Noise Toleranz und das Lernen erhalten bleiben.
* **Experimente**: Ausgiebige Experimente auf verschiedenen Datensätzen demonstrieren die Effektivität von JAL bei der Minderung von Label Noise und einer überlegenen Leistung im Vergleich zu anderen Methoden.
### Beiträge:
1. **Erweiterung asymmetrischer Losses**: Das Papier erweitert asymmetrische Losses auf das passive Loss Szenario, was eine anspruchsvollere Analyse darstellt.
2. **AMSE**: Das Papier schlägt AMSE vor, eine neue asymmetrische passive Loss Funktion, die die asymmetrische Bedingung erfüllt und theoretisch fundiert ist.
3. **JAL**: Das Papier führt JAL ein, eine neue robuste Loss Framework, die AMSE mit dem APL kombiniert, um das traditionelle APL Framework zu verbessern, während die Noise Toleranz und das Lernen erhalten bleiben.
### Auswirkung:
Der vorgeschlagene JAL Framework bietet eine robuste und effektive Lösung für das Lernen mit noisy labels und bietet eine verbesserte Leistung und Noise Toleranz im Vergleich zu bestehenden Methoden. Er hat das Potenzial, verschiedene Anwendungen, einschließlich Computer Vision, Natural Language Processing und anderen Domänen, in denen Label Noise eine häufige Herausforderung darstellt, erheblich zu beeinflussen.
Empfohlene Papiere
Ein mehrstrategischer verbesserten Schlangen-Optimierer für dreidimensionale Drohnen-Pfadplanung und ingenieurwissenschaftliche Probleme
DR.EHR: Dichtes Retrieval für elektronische Gesundheitsakten mit Wissensinjektion und synthetischen Daten
GEPA: Reflektierende Prompt-Evolution kann sich Reinforcement Learning übertreffen
Vorhersage und Erzeugung von Antibiotika gegen zukünftige Pathogene mit ApexOracle
Über die klassische Geometrie chaotischer Grün-Funktionen und Wigner-Funktionen
Mittelspektroskopische Hyperspektralphotographie mit unentdeckten Photonen
"Neubesuch der Zuverlässigkeit im Benchmark für Positionsvermittlung basierend auf der Vernunft"
Mix-Geneformer: Unified Representation Learning für menschliche und Maus-scrNA-seq-Daten
Temperaturabhängige optische Antwort von Hoch-Tc YBa2Cu3O7-δ (Ybco)-Dünnschichten
Multiobjekt-Portfoliounterhaltung über Gradientenabstieg