首页 > 快讯 > 低成本AI模型VibeThinker-1.5B由微博发布,直面大型语言模型挑战

低成本AI模型VibeThinker-1.5B由微博发布,直面大型语言模型挑战

发布时间:2025-11-13 10:52:45 | 责任编辑:张毅 | 浏览量:7 次

近日,中国社交媒体公司微博的人工智能部门推出了开源的 VibeThinker-1.5B,这是一个拥有15亿参数的大型语言模型(LLM)。该模型是基于阿里巴巴的 Qwen2.5-Math-1.5B 进行的精细调整,现已在 Hugging Face、GitHub 和 ModelScope 上免费提供,供研究人员和企业开发者使用,甚至可用于商业目的,遵循 MIT 许可证。
尽管 VibeThinker-1.5B 体积小,但在数学和代码任务上表现出色,达到了行业领先的推理性能,甚至超越了体量达6710亿参数的竞争对手 DeepSeek 的 R1模型。该模型还与 Mistral AI 的 Magistral Medium、Anthropic 的 Claude Opus4和 OpenAI 的 gpt-oss-20B Medium 等多个大型模型抗衡,同时所需的基础设施和投资成本却少得多。
值得一提的是,VibeThinker-1.5B 在后期训练中仅花费了7800美元的计算资源,这一成本远低于同类或更大规模模型所需的数十万美元甚至数百万美元。LLM 的训练分为两个阶段,首先是预训练,模型通过大量文本数据学习语言结构和一般知识。之后的后期训练则使用更小的高质量数据集,使模型能够更好地理解如何提供帮助、进行推理和与人类期望对齐。
VibeThinker-1.5B 采用了一种名为 “谱 - 信号原则”(Spectrum-to-Signal Principle,SSP)的训练框架,该框架将监督微调和强化学习分为两个阶段。第一个阶段注重多样性,第二个阶段则通过强化学习优化最优路径,使得小模型也能有效探索推理空间,从而实现信号放大。
在多个领域的性能测试中,VibeThinker-1.5B 的表现也超过了许多大型开源和商业模型。其开放源代码的发布,打破了对模型参数规模和计算强度的传统看法,展示了小型模型在特定任务中也能取得优异表现的可能性。
huggingface:https://huggingface.co/WeiboAI/VibeThinker-1.5B
划重点:
📊 VibeThinker-1.5B 是微博推出的15亿参数开源 AI 模型,表现出色,甚至超越大型模型。
💰 该模型后期训练成本仅为7800美元,远低于同类模型数十万的费用。
🔍 采用 “谱 - 信号原则” 训练框架,使小模型能够高效推理,提升了小型模型的竞争力。

低成本AI模型VibeThinker-1.5B由微博发布,直面大型语言模型挑战

这是一篇关于微博推出 VibeThinker-1.5B,低成本 AI 模型挑战大型语言模型的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐