创新知识分享:DailiCode——兼容多种LLM模型的开源AI工具,重塑开发者工作流程
发布时间:2025-07-25 11:03:33 | 责任编辑:张毅 | 浏览量:16 次
近日,一款名为DailiCode的开源AI Agent CLI工具在GitHub引发关注。作为Gemini CLI的Fork版本,该工具以强大的多模型兼容性和丰富功能,为开发者打造了高效便捷的命令行AI助手新体验。
跨平台兼容,打破模型壁垒
DailiCode最大亮点在于其广泛的模型适配能力。它不仅支持Gemini、OpenAI等主流大语言模型(LLM)提供商,还能兼容任何遵循OpenAI API格式的自定义LLM API。通过简单的环境变量配置,开发者可无缝切换不同模型,无需改变既有工作流程。
测试数据显示,该工具已对Google Gemini-2.5-pro、OpenRouter Claude Sonnet4、Gpt-4.1等15款模型完成多维度验证。其中,Google Gemini-2.5-pro、OpenRouter Grok-4等6款模型在思考过程、多模态能力、复杂任务处理等7项指标中全部达标,展现出全面的性能优势。
功能聚合,激活开发效能
这款命令行工具集成了多项实用功能:支持利用大上下文窗口查询编辑大型代码库,通过多模态能力从PDF或草图生成应用,自动化处理Pull Request查询、复杂rebase等操作,还可通过MCP服务器扩展新功能。
在实际应用中,开发者可借助它快速生成Discord机器人、总结代码变更、迁移代码库版本,甚至实现图像格式批量转换、PDF发票分类等系统交互任务。通过NPM引入代码的方式,更能实现生成销售数据图表等定制化需求。
轻量化部署,降低使用门槛
DailiCode的部署门槛极低,只需安装Node.js20及以上版本,通过"npx https://github.com/nearmetips/DailiCode"命令即可快速启动,或经npm安装完成本地化部署。其提供的温度参数、最大令牌数等可配置项,让开发者能根据需求精准调控模型输出。
作为基于easy llm cli和Gemini CLI开发的开源项目,DailiCode为开发者提供了连接工具、理解代码、加速工作流的全新解决方案。无论是探索新代码库架构、处理GitHub Issues,还是自动化团队协作流程,这款工具都展现出重构开发效率的巨大潜力,无疑将成为AI辅助编程领域的重要力量。
开源 AI 工具 DailiCode(Daili Code)最近在开发者社区引发热议,其以「多 LLM 兼容 + 自动化工作流」的组合拳,被不少团队视为“下一代 AI 编程助手”。下面从三个角度为你拆解它的核心亮点与落地场景。
一、一次接入,百模随意切
DailiCode 把“模型自由”做到了极致:
-
统一 OpenAI 格式:只要 LLM 符合 OpenAI 的 API 协议(包括本地 vLLM / Ollama),即可通过环境变量秒级接入。
-
实测矩阵验证:官方针对 Gemini-2.5-pro、Claude-4、GPT-4.1、DeepSeek-R1、Qwen3-Plus 等 14 款主流/国产/本地模型,从“工具调用、MCP 调用、多模态、Token 统计”7 个维度给出评分,开发者可按任务特点挑模型。
-
无缝热切换:无需改动业务代码,仅修改
CUSTOM_LLM_MODEL_NAME
等环境变量即可在 CI/CD 流程里动态换模型,方便 A/B 测试与成本控制。
二、AI Agent CLI:把“写代码”变成“下指令”
DailiCode 不只是补全或聊天,它把整个开发链路抽象成可编排的 Agent 任务:
-
代码库级别的理解与修改
在数千行项目中直接对话:> 描述系统架构的主要组成部分 > 为 GitHub #123 issue 生成初稿并提交 PR > 把代码库整体迁移到 Java 21,先出计划再执行
支持超大上下文窗口,可一次读取整个 repo 做重构。
-
多模态一键产成品
上传 PDF/手绘草图 → 自动生成可运行的 Web App;或根据 Figma 原型直接写出前端 + 调用链。 -
深度集成外部工具
通过 MCP(Model-Context-Protocol)服务器把本地 Shell、企业协作、数据可视化工具都变成 LLM 可调用的 Function Calling。
示例:> 制作一个全屏网页,把过去 7 天最活跃的 GitHub issue 按团队成员分组展示
DailiCode 会自动调用
git log
、GitHub API、生成 React 页面并启动本地服务器。
三、安装 & 上手指南
-
前置条件:Node.js ≥ 20
-
一行启动
bash
npx daili-code npm i -g daili-code
-
自定义 LLM 示例
bash
export USE_CUSTOM_LLM =true export CUSTOM_LLM_API_KEY = "sk-xxx" export CUSTOM_LLM_ENDPOINT = "https://api.deepseek.com/v1" export CUSTOM_LLM_MODEL_NAME = "deepseek-chat" dlc
-
在代码里当 SDK 用
JavaScript
import { ElcAgent } from 'daili-code' ; const agent = new ElcAgent ( { model : 'qwen3-plus' , apiKey : process. env . CUSTOM_LLM_API_KEY , endpoint : process. env . CUSTOM_LLM_ENDPOINT } ) ; await agent. run ( '为 src/ 目录生成单元测试' ) ;
小结
DailiCode 通过“多 LLM 兼容 + Agent 工作流”把传统 IDE 里分散的插件、脚本、外部工具整合成一条可被自然语言驱动的流水线。对于个人开发者,它是提效的“万能命令行”;对于团队,它提供了可版本化、可审计、可一键复现的 AI 工作流脚本。
如果你正在寻找能把 GitHub Copilot、LangChain、Shell 脚本和 CI/CD 串起来的“大一统”方案,DailiCode 值得一试。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。