Zusammenfassung - Ein Stiftungsmodell für massive MIMO-Precoding mit einem anpassungsfähigen pro-Benutzer-Raten-Leistungsaustausch
Titel
Ein Stiftungsmodell für massive MIMO-Precoding mit einem anpassungsfähigen pro-Benutzer-Raten-Leistungsaustausch
Zeit
2025-07-24 17:10:06
Autor
{"Jérôme Emery","Ali Hasanzadeh Karkan","Jean-François Frigon","François Leduc-Primeau"}
Kategorie
{eess.SP,cs.AI}
Link
http://arxiv.org/abs/2507.18587v1
PDF Link
http://arxiv.org/pdf/2507.18587v1
Zusammenfassung
Dieser Artikel schlägt ein Grundmodell für massive MIMO (mMIMO) Vorverarbeitung vor, das darauf abzielt, den Energieverbrauch zu minimieren, während es sich dynamisch an die Rateanforderungen pro Benutzer anpasst. Das Modell nutzt tiefes Lernen (DL)-Techniken, um die Abbildung zwischen Kanalzust İnformations (CSI) und Vorverarbeitungsvektoren zu lernen, was im Vergleich zu traditionellen Optimierungsmethoden die Rechenkomplexität erheblich reduziert.
Das vorgeschlagene Grundmodell besteht aus einer Transformer-Encoder-Architektur mit einem gemeinsamen Feature-Extractor und umgebungsspezifischen Ausgabeschichten. Der Feature-Extractor lernt robuste Repräsentationen der CSI, was die Fähigkeit des Modells ermöglicht, sich auf verschiedenen Deployment-Sites zu generalisieren. Die Ausgabeschichten predizieren die Vorverarbeitungsmatrix, den Antennenauswahlsvektor und den Leistungsskalierfaktor für jede Umgebung.
Das Modell wird mit einer mehrfachen Zielfunktion trainiert, die den Energieverbrauch minimiert, während die Rateanforderungen der Benutzer erfüllt werden. Der Trainingsprozess umfasst zwei Phasen: Vortraining und mehrfaches Training. Während des Vortrainings wird das Modell trainiert, die Summe der Rate zu maximieren, während es während des mehrfachen Trainings lernt, den Energieverbrauch und die Zufriedenheit der Benutzer rate zu balancieren.
Das vorgeschlagene Grundmodell zeigt hervorragende Leistung in verschiedenen Deployment-Szenarien, einschließlich Zero-shot- und Few-shot-Settings. Es übertrifft traditionelle Baseline-Algorithmen wie Zero-Forcing (ZF) und Weighted Minimum Mean Squared Error (WMMSE) hinsichtlich Summe der Rate und Energieeffizienz. Darüber hinaus zeigt das Modell starke Generalisierungsfähigkeiten und erreicht nahezu optimale Leistung in unerwarteten Deployment-Umgebungen.
Der Artikel führt auch eine Datenvergrößerungsmethode ein, um die Herausforderung begrenzter Trainingsdaten zu bewältigen. Diese Methode findet Trainingsumgebungen, die der Deployment-Site ähnlich sind, indem eine Similaritätsmetrik über die Ausgaben des Feature-Extractors berechnet wird. Durch die Nutzung dieser Datenvergrößerungstechnik kann das Modell effektiv an neue Deployment-Sites angepasst werden, auch mit minimalem Trainingsdaten.
Zusammenfassend lässt sich sagen, dass das vorgeschlagene Grundmodell für mMIMO-Vorverarbeitung eine vielversprechende Lösung für energieeffiziente und robuste drahtlose Kommunikationssysteme bietet. Seine Fähigkeit, robuste Repräsentationen zu lernen und sich mit minimalen Trainingsdaten an neue Deployment-Sites anzupassen, macht es zu einem wertvollen Werkzeug für die praktische Einführung fortschrittlicher mMIMO-Technologien.
Empfohlene Papiere
Über die Komplexität optimaler korrelierter Gleichgewichte in erweiterten Formspielen
Gromov-Hausdorff-Abstand zwischen chromatischen Metrik-Paaren und Stabilität des Sechspacks
Temperaturabhängige optische Antwort von Hoch-Tc YBa2Cu3O7-δ (Ybco)-Dünnschichten
Übergang von flachbandiger Supraleitfähigkeit zur konventionellen Supraleitfähigkeit
Schätzung einer unendlich dimensionalen Übergangswahrscheinlichkeitsmatrix mittels eines allgemeinen hierarchischen Stick-Breaking-Prozesses
Wissenschaft in Gefahr: Die dringende Notwendigkeit einer institutionellen Unterstützung für langfristige ökologische und evolutionäre Forschung in einer Ära der Datenmanipulation und Desinformation
CASCADE: JavaScript-Deobfuscator mit künstlicher Intelligenz auf Basis eines LLM bei Google
Die Gaia RVS-Benchmark-Sterne. III. Bestätigte und neue hochradialgeschwindigkeitsstarke Sterne aus Gaia DR3
In Richtung zeitliche kausale Repräsentationslernen mit Tensor-Dekomposition
Konsensprobleme mit Swaps und Substitutionen für Strings