概要 - ノイズのあるラベル学習のための対称非対称損失の連結
タイトル
ノイズのあるラベル学習のための対称非対称損失の連結
時間
2025-07-23 16:57:43
著者
{"Jialiang Wang","Xianming Liu","Xiong Zhou","Gangfeng Hu","Deming Zhai","Junjun Jiang","Xiangyang Ji"}
カテゴリ
{cs.LG,cs.CV}
リンク
http://arxiv.org/abs/2507.17692v1
PDF リンク
http://arxiv.org/pdf/2507.17692v1
概要
論文は、ノイズラベル学習用の新しいアプローチとして「共通非対称損失(JAL)」を提案しています。非対称損失関数を導入し、それをより複雑な被動損失シナリオに拡張することで、深層ニューラルネットワークにおけるラベルノイズの問題に対処しています。 ### 主要ポイント: * **ラベルノイズ**:ラベルノイズは、実際のデータセットにおける大きな課題であり、しばしば人間のミスや分野の専門知識の限界から生じます。 * **対称損失**:前の研究では、ラベルノイズを軽減するために対称損失関数、例えば平均絶対誤差(MAE)に焦点を当てていました。しかし、対称損失は厳格な制約のため、下過程が発生します。 * **活性被動損失(APL)**:APLフレームワークは、活性と被動損失を組み合わせて最適化プロセスを強化し、全体のフィッティングパフォーマンスを向上させます。 * **非対称損失関数(ALFs)**:ALFsは、対称損失関数よりもより寛容な条件でノイズ耐性を提供します。しかし、既存のALFsはAPLと互換性がありません。 * **非対称平均二乗誤差(AMSE)**:論文は、非対称条件を満たし、APLと互換性がある新しい非対称被動損失関数であるAMSEを提案しています。 * **共通非対称損失(JAL)**:JALはAMSEとAPLを組み合わせて、伝統的なAPLフレームワークを強化しつつ、ノイズ耐性と十分な学習を維持します。 * **実験**:さまざまなデータセットでの広範な実験が、JALがラベルノイズを軽減し、他の方法と比較して優れたパフォーマンスを達成する効果を示しています。 ### 貢献: 1. **非対称損失の拡張**:論文は、より分析が難しい被動損失シナリオに非対称損失を拡張しています。 2. **AMSE**:論文は、非対称条件を満たし、理論的根拠がある新しい非対称被動損失関数であるAMSEを提案しています。 3. **JAL**:論文は、AMSEとAPLを組み合わせた新しい堅牢な損失フレームワークであるJALを導入しています。 ### 影響: 提案されたJALフレームワークは、ノイズラベル学習に対する堅牢かつ効果的な解決策を提供し、他の方法に比べて改善されたパフォーマンスとノイズ耐性を提供します。コンピュータビジョン、自然言語処理、ラベルノイズが一般的な課題である他の分野でのさまざまなアプリケーションに大きな影響を与える可能性があります。
推奨論文
「確証可能に修正可能なエージェントのための基本的安全価値」
変形体との接触を検出するための十分かつ必要な接触検出のためのグラフ神経网络的サローグエート
「同等に有効なモデルからの任意の予測」
NoHumansRequired: 自動化高品質画像編集トリプルミニング
PySHRED: スパースセンシング、モデル削減、そして科学的発見のためのSHallow REcurrent Decoding用のPythonパッケージ
PurpCode: より安全なコード生成のための推論
GEPA: 反映的なプルミプト進化が强化学習を超える可能性があります
凸二次最大化におけるアクティブセット法の無条件の下界
エルク:深層学習コンパイラ技術を用いて、インターコア接続AIチップの効率を探求する
「小さくて速くて安く:効率的な機械学習のための建築デザイン」