巨人財經 - 專業科技行業財經媒體

浪潮YuanLab.ai開源40B參數源Yuan 3.0 Flash大模型,多任務表現優成本低

   發布時間:2025-12-31 19:08 作者:任飛揚

浪潮旗下YuanLab.ai團隊近日宣布開源發布多模態基礎大模型Yuan 3.0 Flash,該模型憑借400億參數規模與創新的稀疏混合專家(MoE)架構,在推理效率與成本控制方面實現突破性進展。單次推理僅需激活約37億參數,顯著降低了算力需求,為企業級應用提供了更經濟的解決方案。

模型核心創新在于引入強化學習訓練方法RAPO,通過反思抑制獎勵機制(RIRM)優化訓練流程。這一設計有效減少了無效反思行為,在提升推理準確性的同時,將token消耗壓縮至行業領先水平的1/4至1/2。語言主干網絡采用局部過濾增強注意力結構(LFA)與MoE架構的雙重優化,既保證了注意力精度,又進一步降低了訓練與推理的算力開銷。

多模態處理能力方面,Yuan 3.0 Flash構建了視覺編碼器、語言主干網絡與多模態對齊模塊的協同體系。視覺信號經編碼器轉化為token后,與語言token共同輸入主干網絡,通過跨模態對齊模塊實現特征高效融合。特別設計的自適應圖像分割機制,在支持高分辨率圖像理解的同時,將顯存需求降低30%以上,為復雜場景應用掃清硬件障礙。

實測數據顯示,在企業場景的RAG(ChatRAG)、多模態檢索(Docmatix)、表格理解(MMTab)及摘要生成(Summeval)等任務中,Yuan 3.0 Flash的表現已超越GPT-5.1。在多模態推理與語言推理評測中,其400億參數版本精度接近2350億參數的Qwen3-VL235B-A22B與6710億參數的DeepSeek-R1-0528,但token消耗僅為后兩者的1/4至1/2,展現出極高的性價比優勢。

目前,Yuan 3.0 Flash已全面開源,全系列模型參數與訓練代碼均開放免費下載。開發團隊表示,此舉旨在推動多模態大模型在工業界的普及應用,通過降低技術門檻與使用成本,加速AI技術向實體經濟滲透。開源地址已同步公布,供全球開發者與研究機構自由使用。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新