Résumé - L'Impact du Melange des Langues sur la Raisonnement des Modèles de Langue Multilingues

Titre
L'Impact du Melange des Langues sur la Raisonnement des Modèles de Langue Multilingues

Temps
2025-07-21 17:56:09

Auteur
{"Yihao Li","Jiayi Xin","Miranda Muqing Miao","Qi Long","Lyle Ungar"}

Catégorie
{cs.CL,cs.AI,cs.LG}

Lien
http://arxiv.org/abs/2507.15849v1

PDF Lien
http://arxiv.org/pdf/2507.15849v1

Résumé

Ce papier investigate l'impact du mélange des langues sur les capacités de raisonnement des modèles de grandes langues bilingues (LLMs). Il explore le phénomène de mélange des langues, où les LLMs passent de l'anglais au chinois pendant le raisonnement, et examine si ce comportement bénéficie ou nuit à leurs performances. Les auteurs observent d'abord que la force du raisonnement est corrélée avec un mélange des langues plus intense, ce qui suggère que le mélange des langues pourrait être une stratégie délibérée pour améliorer le raisonnement. Ils identifient l'apprentissage par renforcement avec récompenses vérifiables (RLVR) comme l'étape de formation cruciale qui induit le mélange des langues. Pour tester l'impact du mélange des langues sur le raisonnement, ils ont mené des expériences où ils ont contraint les sorties des LLM à être unilingues et les ont comparées aux sorties bilingues non contraintes. Ils ont constaté que les sorties bilingues surpassaient nettement celles unilingues dans les tâches de raisonnement mathématique. De plus, ils ont formé un détecteur léger pour prédire si un potentiel changement de langue bénéficierait ou nuirait au raisonnement. Ce détecteur a été utilisé pour guider le décodage, ce qui a entraîné des améliorations supplémentaires en termes de précision. Cela suggère que le mélange des langues n'est pas simplement un produit secondaire de l'entraînement multilingue, mais un comportement de raisonnement stratégique qui peut être exploité pour améliorer le raisonnement des LLM. Dans l'ensemble, le papier fournit des preuves que le mélange des langues peut être une stratégie bénéfique pour le raisonnement des LLM. Il met en lumière l'importance de comprendre les facteurs qui influencent le mélange des langues dans les LLM et suggère des moyens d'exploiter ce comportement pour améliorer les performances de raisonnement.


Articles Recommandés

Dynamique spinne-only du modèle non-reciproque multi-espèces de Dicke

TrinityDNA : Un modèle fondamental bio-inspiré pour la modélisation efficace des séquences longues d'ADN

Modules interferométriques monolithiques pour positionnement de coordonnées multi-axes avec une précision de quelques nanomètres

Rôtors électroniques et cristaux de Wigner dans un liquide dipolaire deux dimensions

WIP : Transformez les puces fausses en opportunités d'apprentissage

GENIAL : Exploration de l'espace de conception générique via l'inversion de réseau pour des unités logiques algorithmiques à faible consommation d'énergie

Étude des flux non linéaires et des bandes de cisaillement dans les micelles vermiformes sous des conditions variables d'élasticité, de courbure du flux et de chimie des tensio-actifs

Règles des sommes en liquides quantiques

Démonstration de la sensibilité accrue du deutérium aux violations de symétrie régies par l'Extension du Modèle Standard

Sous-ensemble Sensible au Certificat : Réalisation de la Complexité d'Instance