Zusammenfassung - Ein Stiftungsmodell für massive MIMO-Precoding mit einem anpassungsfähigen pro-Benutzer-Raten-Leistungsaustausch

Titel
Ein Stiftungsmodell für massive MIMO-Precoding mit einem anpassungsfähigen pro-Benutzer-Raten-Leistungsaustausch

Zeit
2025-07-24 17:10:06

Autor
{"Jérôme Emery","Ali Hasanzadeh Karkan","Jean-François Frigon","François Leduc-Primeau"}

Kategorie
{eess.SP,cs.AI}

Link
http://arxiv.org/abs/2507.18587v1

PDF Link
http://arxiv.org/pdf/2507.18587v1

Zusammenfassung

Dieser Artikel schlägt ein Grundmodell für massive MIMO (mMIMO) Vorverarbeitung vor, das darauf abzielt, den Energieverbrauch zu minimieren, während es sich dynamisch an die Rateanforderungen pro Benutzer anpasst. Das Modell nutzt tiefes Lernen (DL)-Techniken, um die Abbildung zwischen Kanalzust İnformations (CSI) und Vorverarbeitungsvektoren zu lernen, was im Vergleich zu traditionellen Optimierungsmethoden die Rechenkomplexität erheblich reduziert. Das vorgeschlagene Grundmodell besteht aus einer Transformer-Encoder-Architektur mit einem gemeinsamen Feature-Extractor und umgebungsspezifischen Ausgabeschichten. Der Feature-Extractor lernt robuste Repräsentationen der CSI, was die Fähigkeit des Modells ermöglicht, sich auf verschiedenen Deployment-Sites zu generalisieren. Die Ausgabeschichten predizieren die Vorverarbeitungsmatrix, den Antennenauswahlsvektor und den Leistungsskalierfaktor für jede Umgebung. Das Modell wird mit einer mehrfachen Zielfunktion trainiert, die den Energieverbrauch minimiert, während die Rateanforderungen der Benutzer erfüllt werden. Der Trainingsprozess umfasst zwei Phasen: Vortraining und mehrfaches Training. Während des Vortrainings wird das Modell trainiert, die Summe der Rate zu maximieren, während es während des mehrfachen Trainings lernt, den Energieverbrauch und die Zufriedenheit der Benutzer rate zu balancieren. Das vorgeschlagene Grundmodell zeigt hervorragende Leistung in verschiedenen Deployment-Szenarien, einschließlich Zero-shot- und Few-shot-Settings. Es übertrifft traditionelle Baseline-Algorithmen wie Zero-Forcing (ZF) und Weighted Minimum Mean Squared Error (WMMSE) hinsichtlich Summe der Rate und Energieeffizienz. Darüber hinaus zeigt das Modell starke Generalisierungsfähigkeiten und erreicht nahezu optimale Leistung in unerwarteten Deployment-Umgebungen. Der Artikel führt auch eine Datenvergrößerungsmethode ein, um die Herausforderung begrenzter Trainingsdaten zu bewältigen. Diese Methode findet Trainingsumgebungen, die der Deployment-Site ähnlich sind, indem eine Similaritätsmetrik über die Ausgaben des Feature-Extractors berechnet wird. Durch die Nutzung dieser Datenvergrößerungstechnik kann das Modell effektiv an neue Deployment-Sites angepasst werden, auch mit minimalem Trainingsdaten. Zusammenfassend lässt sich sagen, dass das vorgeschlagene Grundmodell für mMIMO-Vorverarbeitung eine vielversprechende Lösung für energieeffiziente und robuste drahtlose Kommunikationssysteme bietet. Seine Fähigkeit, robuste Repräsentationen zu lernen und sich mit minimalen Trainingsdaten an neue Deployment-Sites anzupassen, macht es zu einem wertvollen Werkzeug für die praktische Einführung fortschrittlicher mMIMO-Technologien.


Empfohlene Papiere

Über die Komplexität optimaler korrelierter Gleichgewichte in erweiterten Formspielen

Gromov-Hausdorff-Abstand zwischen chromatischen Metrik-Paaren und Stabilität des Sechspacks

Temperaturabhängige optische Antwort von Hoch-Tc YBa2Cu3O7-δ (Ybco)-Dünnschichten

Übergang von flachbandiger Supraleitfähigkeit zur konventionellen Supraleitfähigkeit

Schätzung einer unendlich dimensionalen Übergangswahrscheinlichkeitsmatrix mittels eines allgemeinen hierarchischen Stick-Breaking-Prozesses

Wissenschaft in Gefahr: Die dringende Notwendigkeit einer institutionellen Unterstützung für langfristige ökologische und evolutionäre Forschung in einer Ära der Datenmanipulation und Desinformation

CASCADE: JavaScript-Deobfuscator mit künstlicher Intelligenz auf Basis eines LLM bei Google

Die Gaia RVS-Benchmark-Sterne. III. Bestätigte und neue hochradialgeschwindigkeitsstarke Sterne aus Gaia DR3

In Richtung zeitliche kausale Repräsentationslernen mit Tensor-Dekomposition

Konsensprobleme mit Swaps und Substitutionen für Strings