全新开放源代码的 LLaVA-OneVision-1.5 登场,功能超越 Qwen2.5-VL 的先进多模态模型
发布时间:2025-10-17 11:13:09 | 责任编辑:张毅 | 浏览量:10 次
近日,开源社区迎来了 LLaVA-OneVision-1.5,这是一款全新的多模态模型,标志着技术的一次重大进步。LLaVA(大型语言与视觉助手)系列历经两年开发,逐步从简单的图文对齐模型演变为能够处理图像、视频等多种输入形式的综合性框架。
LLaVA-OneVision-1.5的核心理念是提供一个开放、高效且可复现的训练框架,让用户能够轻松构建高质量的视觉语言模型。其训练过程分为三个阶段:首先,通过语言 - 图像对齐的预训练阶段,模型学习将视觉特征转化为语言词嵌入。
接着,在第二阶段 “高质量知识学习” 中,模型在8500万的训练样本上进行全参数训练,注入大量视觉和知识信息,显著提升模型能力。最后,在视觉指令微调阶段,使用精心设计的数据集进行训练,使模型具备处理多种复杂视觉指令的能力。
在效率方面,团队采用了一种创新的离线并行数据打包方法,显著提高了训练效率。在8500万样本的基础上,数据处理的压缩比高达11倍,训练过程仅需3.7天便可完成。同时,LLaVA-OneVision-1.5还采用了 RICE-ViT 作为视觉编码器,具备区域感知的视觉理解能力,特别适合处理文档中的文字。
数据是模型能力的基础,LLaVA-OneVision-1.5的预训练数据集广泛多样,并引入了 “概念均衡” 的采样策略,确保模型在各类任务上的表现均衡。该模型在各项基准测试中表现出色,尤其是80亿参数的版本在27个基准中超越了 Qwen2.5-VL 的表现。
项目:
https://github.com/EvolvingLMMs-Lab/LLaVA-OneVision-1.5
https://huggingface.co/lmms-lab/LLaVA-OneVision-1.5-8B-Instruct
划重点:
🌟 LLaVA-OneVision-1.5是最新的开源多模态模型,具有处理图像和视频等多种输入的能力。
📈 训练过程分为三个阶段,旨在高效提升模型的视觉与语言理解能力。
🏆 在基准测试中,LLaVA-OneVision-1.5表现优异,超越了 Qwen2.5-VL 模型。
这是一篇关于全面开源的 LLaVA-OneVision-1.5,超越 Qwen2.5-VL 的多模态模型登场的文章,内容值得关注。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。