首页 > 快讯 > 腾讯混元推出520亿参数多模态理解模型Large-Vision,兼容全分辨率场景输入

腾讯混元推出520亿参数多模态理解模型Large-Vision,兼容全分辨率场景输入

发布时间:2025-08-13 10:59:05 | 责任编辑:张毅 | 浏览量:15 次

腾讯混元团队近日发布了全新的多模态理解模型——混元Large-Vision,该模型采用腾讯混元擅长的MoE(专家混合)架构,激活参数达到52B规模,在性能与效率之间实现了良好平衡。
混元Large-Vision的核心亮点在于其强大的多模态输入支持能力。该模型不仅支持任意分辨率的图像处理,还能处理视频和3D空间输入,为用户提供了全方位的视觉理解体验。这一技术突破意味着用户可以直接输入各种格式和尺寸的视觉内容,无需进行复杂的预处理操作。
MoE架构优势凸显,效率与性能并重
混元Large-Vision选择MoE架构并非偶然。这种架构通过动态激活部分专家网络来处理不同类型的输入,既保证了模型的强大性能,又避免了全参数激活带来的计算资源浪费。52B的激活参数规模在当前多模态模型中处于先进水平,能够处理复杂的视觉理解任务。
该模型还重点提升了多语言场景理解能力,这对于全球化应用具有重要意义。在处理包含多种语言文字的图像或视频时,混元Large-Vision能够准确识别和理解不同语言环境下的视觉内容,为跨语言的多模态应用提供了技术基础。
任意分辨率支持开启新应用可能
混元Large-Vision支持任意分辨率图像输入的特性尤其值得关注。传统的视觉模型往往需要将输入图像调整到固定尺寸,这可能导致信息丢失或画质下降。而混元Large-Vision能够直接处理原始分辨率的图像,保持了视觉信息的完整性,这对于需要精细视觉分析的应用场景具有重要价值。
3D空间输入支持则进一步扩展了模型的应用范围,为虚拟现实、增强现实、3D建模等领域的AI应用提供了强有力的技术支撑。结合视频处理能力,该模型有望在智能监控、视频分析、内容创作等多个行业发挥重要作用。
腾讯混元Large-Vision的发布进一步加剧了国内多模态AI模型的竞争格局。随着各大厂商在多模态理解领域持续投入,用户将能享受到更加智能、高效的AI视觉理解服务。

腾讯混元推出520亿参数多模态理解模型Large-Vision,兼容全分辨率场景输入

腾讯混元于2025年8月12日正式发布了全新的多模态理解模型——混元Large-Vision,其核心亮点包括:

  • 模型架构与规模:采用腾讯混元擅长的MoE(专家混合)架构,激活参数规模达到52B,兼顾性能与效率。

  • 任意分辨率与全场景输入:突破传统模型需固定分辨率输入的限制,支持任意分辨率的图像、视频及3D空间输入,无需预处理,确保视觉信息的完整性和准确性。

  • 多语言场景理解能力:显著提升了在复杂多语言环境下的视觉理解能力,适用于全球化应用场景。

  • 实际应用表现:在国际权威评测“LMArena Vision排行榜”中,以1256分位列全球第五、国内第一,与GPT-4.5、Claude-4-Sonnet等顶尖模型处于同一水平。

该模型的发布,标志着腾讯混元在多模态理解领域迈出了重要一步,预计将在智能监控、视频分析、内容创作、虚拟现实、增强现实等多个行业发挥重要作用。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐