近期,人工智能領域迎來了一項引人注目的技術創新。知名技術團隊月之暗面Kimi發布了一項關于Muon優化器的新技術報告,并隨之推出了名為“Moonlight”的混合專家模型(MoE)。這款模型在Muon優化器的基礎上進行了訓練,擁有30億至160億不等的參數規模。
Moonlight模型在訓練過程中采用了5.7萬億個token的數據量,并且在減少浮點運算次數(FLOPs)的同時,實現了卓越的性能表現。這一成果不僅提升了帕累托效率邊界,更為大規模的語言模型訓練提供了新的思路。
月之暗面團隊表示,Muon優化器通過引入權重衰減和精細調整每個參數更新幅度的技術,實現了在大規模訓練中的高效應用。這些創新技術使得Muon優化器無需繁瑣的超參數調優,即可直接應用于實際訓練任務。
據團隊介紹,在擴展法則實驗中,Muon優化器相較于計算最優訓練的AdamW優化器,實現了約2倍的計算效率提升。這一顯著優勢使得Muon優化器在處理大規模數據集時更加得心應手。
本次發布的Moonlight模型采用了名為Moonlight-16B-A3B的具體配置,總參數量達到15.29B,其中激活參數為2.24B。在5.7T token的訓練數據支持下,Moonlight模型展現出了卓越的性能表現,不僅突破了當前的Pareto前沿,還在大幅減少FLOPs的情況下實現了比以往模型更優的性能。
為了方便其他研究人員和開發者利用這一創新成果,月之暗面團隊還開源了一個分布式版本的Muon實現。該實現在內存使用和通信效率上都進行了優化,旨在提高整體性能和易用性。團隊還發布了預訓練模型、經過指令調優的模型以及中間訓練檢查點,為未來的研究工作提供了有力支持。
對于對這項技術感興趣的研究人員和開發者來說,可以通過訪問GitHub和Hugging Face平臺,獲取更多關于Moonlight模型和Muon優化器的詳細信息。