透過 Edge AI與數位預失真提升5G能效
透過 Edge AI與數位預失真提升5G能效
作者:ADI
雖然5G已深刻改變世界,並兌現了高速率、低延遲、高密度連接的承諾,但也伴隨著一項隱性代價:不容忽視的能耗成本。根據愛立信(Ericsson)預測,到本十年末,5G用戶數量將達到67億1 。然而,儘管5G的資料傳輸效率遠超4G網路,但由於承載的資料量更大,5G的能耗將比傳統網路高出4至5倍2。
此一挑戰的核心在於無線接取網路(RAN)的功耗。RAN網路消耗了絕大部分電力,尤其是在功率放大器(PA)環節。為了在能效比與訊號失真、更寬廣的工作頻寬及更快速訊號變化之間尋求平衡,RAN開發者如今對於彈性、智慧化和即時優化提出了更高要求。簡而言之,RAN設備需要具備更強的適應性。
面對5G系統在適應性與能效方面的新壓力,技術人員已將目光投向快速發展的人工智慧(AI),並探索AI可望帶來的新能力。除了備受關注的大語言模型,AI在真實的本地決策領域也正湧現新機遇,藉由AI的分析優勢,可即時因應各類複雜應用場景。無線通訊領域的技術人員並已著手研究如何運用AI的能力來優化RAN功耗,並從中看到了機會。
對於行動營運業者而言,推動AI融合的舉措可謂恰逢其時。事實上,麥肯錫(McKinsey)的研究發現,能耗對營運業者淨利潤的影響比銷售額成長高出50%3 。與此同時,Verizon、T-Mobile、Bharti Airtel等眾多通訊營運業者均已承諾在2050年前實現淨零排放的目標。
在5G時代,網路能效問題愈發嚴峻。儘管4G網路的能耗成本已占網路總體持有成本的20%至25%,4 但向5G的轉換大幅加劇此一壓力。在某些場景下,高性能5G部署(尤其是疊加在傳統2G、3G和4G基礎設施之上時)可能導致能源需求增幅高達140%2。
技術討論
引發5G時代功耗上升的三大因素:5:
大規模MIMO
相較於目前的2×2或4×4 MIMO配置,5G大規模MIMO (M-MIMO)基地台「訊號塔」規模更大、性能更強,最大支援64×64配置(規模較傳統方案高出16倍),能耗也顯著增加。例如,一座5G基地台的耗電量是4G基地台的3倍。
基地台數量增多
進入5G時代,城市區域需透過新增大型基地台與小型基地台實現網路密集化,而這將進一步推高總能耗。
行動資料流程量增加
結合「位元驅動瓦特」的理念,不難發現:即便5G在單位位元能效比上表現更卓越,但受行動資料流程量高達50%的增加幅度影響,整體網路的功耗仍會隨之攀升。
營運業者能源使用情況
資料來源:全球行動通訊系統協會(GSMA);2021年能源消耗分佈6
其他營運
資料中心
核心網路
無線網路
5G的能源挑戰
5G能耗問題的核心在於一種微妙的權衡:功率放大器(PA)在接近滿負荷運行時能效最高,但這種運行模式會導致訊號失真,進而引發合規問題並降低性能。為規避此類風險,大多數PA會採用回退模式,以犧牲能效為代價來維持訊號保真度。
「記憶效應」進一步加劇了PA的非線性問題。PA包含一些回應速度較慢的元件,它們會「記住」先前的輸入訊號,導致PA的非線性程度取決於流經自身的過往訊號。
數位預失真(DPD)技術可解決此類問題。
DPD的工作原理
DPD的工作機制是:預先對訊號進行失真處理,且失真方向與PA通常產生的失真方向相反。這類似於裁縫縫製衣物時會預留額外尺寸,因為知道衣物洗滌後會縮水;DPD則會預先調整訊號,使得訊號流經PA時,兩種失真能夠相互抵消,進而保證傳輸的訊號清晰且準確。
未來的演進方向十分明確:藉由AI實現更智慧的DPD。
技術討論
目前的DPD解決方案依賴於一種基於數學模型的方法,即基於Volterra的線性化,用於對PA的特性進行建模。在5G傳輸場景中,此類模型的複雜度會呈現指數級成長,進而需要更多的運算資源和儲存資源,導致晶片面積和能耗大幅增加,最終削弱DPD帶來的能效收益和應用價值。
新範式:基於機器學習的數位預失真
如今,新興技術開始藉由機器學習(ML)取代傳統DPD中固定的數學模型。工程師無需手動調整訊號校正演算法,而是可以利用經真實波形資料訓練的神經網路,對PA的非線性特性進行動態建模與即時校正。這些模型可透過反向傳播演算法優化,並直接映射到現有硬體結構中。
基於機器學習的數位預失真(ML-DPD)應運而生。
ML-DPD的優勢具有深刻影響:優化時間可從數天縮短至數小時;在各類訊號條件下,模型性能均有所提升;節能不再停留在理論層面,而是具備了實際意義。最重要的是,此類解決方案具備自我調整能力,能夠從即時工況中學習,並隨硬體與環境的變化而動態調整。
中期數位預失真(MT-DPD)
儘管目前的DPD技術已具備一定效果,但不斷發展的行動通訊需求正不斷挑戰DPD的性能邊界。為實現更大資料量、更快速度的傳輸,功率放大器(PA)必須在更寬廣的頻寬範圍內工作,而這會導致訊號快速變化。這種快速變化可能引發電氣不穩定和訊號失真,存在超出美國聯邦傳播委員會(FCC)發射限值的風險。
為解決此一問題,研究人員開發了一種基於神經網路的新模型,能準確地理解並因應訊號的動態變化。
技術討論
透過將這種模型與在系統取樣速率下運行的基於Volterra的DPD模型相結合,中期數位預失真(MT-DPD)技術得以誕生。這種技術專門針對持續時間在100奈秒至10微秒之間的訊號記憶效應所導致的失真。早期測試顯示,這種技術能顯著降低失真程度。7展望未來,研究重點可能會轉向解決電荷捕獲問題,這是氮化鎵(GaN)元件面臨的另一大性能障礙。
長期解決方案
如今,PA面臨的挑戰不僅限於靜態失真。5G中的動態流量更加劇了長期記憶效應,尤其是基於GaN的高效率PA中因電荷捕獲導致的問題。AI驅動的方法則同樣能夠對這些特性進行建模,進而將DPD的能力擴展到新領域。
技術討論
分層神經網路如今能夠同時校正和適應由即時非線性、快速變化的瞬態和緩慢漂移效應導致的失真。由此所打造出的一套統一系統,將能夠在實際場景中提供高訊號保真度,同時保持高水準的PA效率。7
ML-DPD:行動營運業者的高能效未來
ML-DPD解決了業界的一項實際需求:提升基地台能效。這對行動營運業者而言十分重要,業者在5G基礎設施上投入大量資金,必須透過降低成本以提升競爭力。在保持合規的同時,以最優容量傳輸訊號已是一項重要優勢,如此將讓我們得以享受高速的行動網路體驗。
訊號優化已不再僅僅是工程層面的考量,更成為業務層面的一項必然要求。ML-DPD則已為控制5G能耗提供了一條可行的路徑。
參考文獻
1 “Mobility Report”,愛立信,2024年11月。
2What Is 5G Energy Consumption?”,VIAVI。
3“The Growing Imperative of Energy Optimization for Telco Networks”,麥肯錫,2024年。
4“5G Energy Consumption: A Rapidly Changing Business Climate”,STL Partners,2021年。
5“5G Era Mobile Network Cost Evolution”,GSMA,2019年。
6Energy Consumption Breakdown”,GSMA,2021年。
7ADI獨立測試。