Yuan3.0Flash开源项目:全新多模态基础模型推动AI创新趋势
发布时间:2025-12-31 16:07:21 | 责任编辑:张毅 | 浏览量:1 次
近日,YuanLab.ai 团队正式发布了源 Yuan3.0Flash 多模态基础大模型,这一模型的开源将为 AI 领域带来新的机遇。该模型不仅包括16bit 与4bit 的模型权重,还提供了详细的技术报告和训练方法,支持社区进行二次开发和行业定制,极大地促进了 AI 技术的普及。
Yuan3.0Flash 的参数规模达到40B,采用了创新的稀疏混合专家(MoE)架构,在推理过程中,仅激活约3.7B 的参数。这种设计不仅提高了推理的准确性,还大幅降低了算力消耗,体现了 “更少算力、更高智能” 的理念。此外,模型还引入了强化学习训练方法(RAPO),通过反思抑制奖励机制(RIRM),有效地引导模型减少无效反思,进一步提升了性能。
在模型的结构上,Yuan3.0Flash 由视觉编码器、语言主干网络和多模态对齐模块组成。语言主干网络采用了局部过滤增强的 Attention 结构(LFA)和混合专家结构(MoE),在保证注意力精度的同时,显著减少了训练和推理过程中的算力开销。视觉编码器能够将视觉信号转化为 token,与语言 token 共同输入,从而实现高效的跨模态特征对齐。
在实际应用方面,Yuan3.0Flash 在企业场景中的表现已超越了 GPT-5.1,特别是在 RAG(ChatRAG)、多模态检索(Docmatix)以及多模态表格理解(MMTab)等任务上,展现了显著的能力优势。多模态推理与语言推理的评测中,该模型的精度接近于更大规模的模型,如 Qwen3-VL235B-A22B(235B)和 DeepSeek-R1-0528(671B),但其 token 消耗仅为后者的1/4到1/2,有效降低了企业在大模型应用上的成本。
未来,源 Yuan3.0将推出多个版本,包括 Flash、Pro 和 Ultra,参数规模涵盖40B、200B 和1T 等选择,进一步丰富了 AI 模型的应用可能性。
划重点:
🌟 Yuan3.0Flash 是一款开源的40B 参数规模多模态基础大模型,包含多种模型权重和详细的技术报告。
💡 该模型采用创新的稀疏混合专家架构,推理过程显著降低算力消耗,提升智能表现。
🚀 在企业应用中,Yuan3.0Flash 已超越 GPT-5.1,展现出优秀的多模态推理能力,降低了应用成本。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
