首页 > 快讯 > 面壁小钢炮 MiniCPM 免费商用

面壁小钢炮 MiniCPM 免费商用

发布时间:2024-06-06 10:39:35 | 责任编辑:字母汇 | 浏览量:287 次

即日起, MiniCPM 和 MiniCPM-V 权重将对学术研究完全开放,并且企业、个人在填写问卷登记后亦允许商业使用,社区使用 MiniCPM 系列模型需要遵循 Apache 2.0 和《MiniCPM 模型社区许可协议》。

8B 体量,GPT-4V 级端侧最强多模态模型 MiniCPM-Llama3-V 2.5一经发布火遍全球,登顶 GitHub,HuggingFace,Papers With Code Trending 三榜首。当前 MiniCPM-V 系列下载总量已超 24万,GitHub 星标 5.5 k+。

  • 超越 Gemini Pro 、GPT-4V 的最强端侧多模态综合性能;
  • OCR 能力 SOTA!180 万像素更清晰,难图长图长文本精准识别;
  • 手机端高效运行:量化后仅 8G 显存,4070 显卡轻松推理,6-8tokens/s 极速运行;
  • 图像编码快 150 倍!首次端侧系统级多模态加速;
  • 支持 30+ 多种语言。

部署对于大模型高效落地至关重要,在听到 llama.cpp 核心贡献者及其他众多开发者朋友的呼声后,我们不仅火速支持了 MiniCPM-Llama3-V 2.5 和 llama.cpp 的适配,而且进一步的带来了更多功能大放送:

  • llama.cpp: 开源了 16 种 gguf 格式量化模型,方便用户选择合适的版本,支持 llama.cpp 推理,可实现端侧 6-8 tokens/s 的流畅解码。
  • Ollama: 支持 Ollama 部署,方便用户在本地机器上便捷部署和运行。
  • 高效 LoRA 微调:仅需 2 张 V100 显卡即可微调,轻松针对个性化场景进行定向能力强化。
  • 流式输出:新增传参 stream=True 即可轻松体验流式输出。
  • Demo:支持 Gradio 和 Streamlit 两种交互 demo,可快速进行本地 WebUI demo 搭建,同时也可以在 OpenBMB 的 HugginFace Spaces 在线体验。
  • 手机 APK:支持安卓和鸿蒙系统手机部署的 APK。

 ➤  商用授权申请问卷链接:🔗 https://modelbest.feishu.cn/share/base/form/shrcnpV5ZT9EJ6xYjh3Kx0J6v8g

具体协议以 OpenBMB/MiniCPM 和 OpenBMB/MiniCPM-V 的 Github 官方声明为准,再次感谢厚爱支持。

 ➤  MiniCPM-Llama3-V 2.5 开源地址:🔗 https://github.com/OpenBMB/MiniCPM-V

 ➤  MiniCPM 系列开源地址:🔗 https://github.com/OpenBMB/MiniCPM

 ➤  Hugging Face 下载地址:🔗 https://huggingface.co/openbmb/MiniCPM-Llama3-V-2_5

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具