浪潮旗下YuanLab.ai团队近日宣布开源发布多模态基础大模型Yuan 3.0 Flash,该模型凭借400亿参数规模与创新的稀疏混合专家(MoE)架构,在推理效率与成本控制方面实现突破性进展。单次推理仅需激活约37亿参数,显著降低了算力需求,为企业级应用提供了更经济的解决方案。
模型核心创新在于引入强化学习训练方法RAPO,通过反思抑制奖励机制(RIRM)优化训练流程。这一设计有效减少了无效反思行为,在提升推理准确性的同时,将token消耗压缩至行业领先水平的1/4至1/2。语言主干网络采用局部过滤增强注意力结构(LFA)与MoE架构的双重优化,既保证了注意力精度,又进一步降低了训练与推理的算力开销。
多模态处理能力方面,Yuan 3.0 Flash构建了视觉编码器、语言主干网络与多模态对齐模块的协同体系。视觉信号经编码器转化为token后,与语言token共同输入主干网络,通过跨模态对齐模块实现特征高效融合。特别设计的自适应图像分割机制,在支持高分辨率图像理解的同时,将显存需求降低30%以上,为复杂场景应用扫清硬件障碍。
实测数据显示,在企业场景的RAG(ChatRAG)、多模态检索(Docmatix)、表格理解(MMTab)及摘要生成(Summeval)等任务中,Yuan 3.0 Flash的表现已超越GPT-5.1。在多模态推理与语言推理评测中,其400亿参数版本精度接近2350亿参数的Qwen3-VL235B-A22B与6710亿参数的DeepSeek-R1-0528,但token消耗仅为后两者的1/4至1/2,展现出极高的性价比优势。
目前,Yuan 3.0 Flash已全面开源,全系列模型参数与训练代码均开放免费下载。开发团队表示,此举旨在推动多模态大模型在工业界的普及应用,通过降低技术门槛与使用成本,加速AI技术向实体经济渗透。开源地址已同步公布,供全球开发者与研究机构自由使用。















