華為首度發表昇騰晶片訓練兩大模型 業內分析:提供一顆「定心丸」

華為在MoE模型訓練領域再進一步,推出參數規模高達7,180億的全新模型—盤古Ultra MoE,這是一個全流程在昇騰AI計算平台上訓練的準萬億MoE模型(意指參數規模近1兆)。華為同時發布盤古Ultra MoE模型架構和訓練方法的技術報告,披露眾多技術細節,充分體現華為AI晶片昇騰在超大規模MoE訓練性能上的跨越。
券商中國報導,業內人士分析,華為盤古Ultra MoE和盤古Pro MoE系列模型的發布,證明華為不僅完成了國產算力+國產模型的全流程自主可控的訓練實踐,同時在集群訓練系統的性能上也實現了業界領先。這意味著國產AI基礎設施的自主創新能力得到了進一步驗證,為中國人工智慧產業的發展提供了一顆「定心丸」。
據悉,訓練超大規模和極高稀疏性的MoE模型極具挑戰,訓練過程中的穩定性往往難以保障。針對這一難題,華為盤古團隊在模型架構和訓練方法上進行了創新性設計,成功地在昇騰平台上實現準萬億MoE模型的全流程訓練。
在模型架構上,盤古團隊提出Depth-Scaled Sandwich-Norm(DSSN)穩定架構和TinyInit小初始化的方法,在昇騰平台上實現了超過18TB資料的長期穩定訓練。此外,他們還提出了EP loss負載優化方法,這一設計不僅保證了各個專家之間的能保持較好的負載均衡,也提升了專家的領域特化能力。同時,盤古Ultra MoE使用了業界先進的MLA和MTP架構,在預訓練和後訓練階段都使用了Dropless訓練策略,實現了超大規模MoE架構在模型效果與效率之間的最佳平衡。
在訓練方法上,華為團隊首次披露在昇騰CloudMatrix 384超節點上,高效打通大稀疏比MoE強化學習(RL)後訓練框架的關鍵技術,使RL後訓練進入超節點集群時代。同時,在5月初發佈的預訓練系統加速技術基礎上,在不到一個月的時間內,華為團隊又完成了一輪迭代升級,包括:適配昇騰硬體的自適應流水掩蓋策略,進一步優化運算元執行程式,進一步降低Host-Bound以及提升EP通信的掩蓋;自適應管理記憶體優化策略的開發;資料重排實現DP間Attention負載均衡;以及昇騰親和的運算元優化,這些技術實現萬卡集群預訓練MFU由30%大幅提升至 41%。
此外,近期發佈的盤古Pro MoE大模型,在參數量僅為720億、啟動160億參數量的情況下,通過動態啟動專家網路的創新設計,實現了以小打大的優異性能,甚至可以媲美千億級模型的性能表現。在業界權威大模型榜單SuperCLUE最新公佈的2025年5月排行榜上,位居千億參數量以內大模型排行並列國內第一。
業內人士分析,華為此舉的核心意義在於,證明了在國產AI算力平台(昇騰)上,能夠高效、穩定地訓練並優化達到國際頂尖水平的超大規模稀疏模型(MoE),實現了從硬體到軟體、從訓練到優化、從基礎研究到工程落地的「全棧國產化」和「全流程自主可控」的閉環,並在關鍵性能指標上達到業界領先水平。
延伸閱讀
贊助廣告
商品推薦
udn討論區
- 張貼文章或下標籤,不得有違法或侵害他人權益之言論,違者應自負法律責任。
- 對於明知不實或過度情緒謾罵之言論,經網友檢舉或本網站發現,聯合新聞網有權逕予刪除文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
- 對於無意義、與本文無關、明知不實、謾罵之標籤,聯合新聞網有權逕予刪除標籤、停權或解除會員資格。不同意上述規範者,請勿下標籤。
- 凡「暱稱」涉及謾罵、髒話穢言、侵害他人權利,聯合新聞網有權逕予刪除發言文章、停權或解除會員資格。不同意上述規範者,請勿張貼文章。
FB留言