五大聪明策略:企业利用AI降低成本及增强性能的方法
发布时间:2025-08-19 10:26:21 | 责任编辑:吴昊 | 浏览量:9 次
在当今的商业环境中,企业普遍认为,人工智能模型的运算需求极为庞大,因此他们必须寻求更多的计算能力。但 Hugging Face 的 AI 与气候负责人 Sasha Luccioni 认为,企业可以通过更聪明的方式使用 AI,来提高模型的性能和准确性,而不是一味追求更高的计算资源。
Luccioni 指出,企业在使用 AI 时常常选择大型通用模型,然而实际上,针对特定任务的精简模型可以在精确度和成本上超过这些大型模型,并且能显著降低能耗。她的研究显示,任务特定模型的能耗比通用模型低20到30倍。
其次,企业应当将效率作为默认选项。通过运用 “推力理论”,可以在系统设计中引导用户行为,减少不必要的计算消耗。例如,企业可以限制默认开启高成本的计算模式,鼓励用户选择最适合的计算方式。
另外,硬件利用率的优化也非常重要。企业应当考虑使用批处理、调整计算精度及优化批次大小,以减少资源浪费。通过对硬件的细致调节,企业可以大幅提升计算效率。
为鼓励能源透明度,Hugging Face 还推出了 AI 能效评分机制,这一评分系统对模型的能耗效率进行评估,促使开发者关注能效问题。
Luccioni 建议企业反思 “更多计算就更好” 的传统思维。与其追求大型 GPU 集群,不如从如何聪明地达成结果出发,利用更优的架构和数据管理来提升性能。
划重点:
🌟 选择针对特定任务的模型比使用大型通用模型更具成本效益,能显著降低能耗。
🔍 将效率设为默认选项,通过推力理论减少不必要的计算开销。
⚙️ 优化硬件利用率和能效评分,提升计算效率,促进可持续 AI 系统的发展。
企业聪明使用 AI 的五大策略(兼顾“降本”与“提效”)
-
用“小模型”做“大事情”
与其一上来就用 GPT-4 这类巨无霸,不如针对业务场景训练/微调轻量级、任务专用模型。Hugging Face 的测试显示,这种“小模型”在准确率可比肩通用大模型的同时,能耗降低 20–30 倍,推理成本同步下降。 -
把效率设为“默认选项”
在系统设计阶段就引入“推力理论”:
• 高成本模式默认关闭,仅当用户明确勾选才开启;
• 用批处理、混合精度、动态 batch size 等手段榨干 GPU 最后一滴算力;
• 给每个模型打上公开的“AI 能效分”,让研发团队像盯延迟一样盯能耗。 -
让 AI 干“体力活”,释放人力做创新
• 重复性、规则明确的流程(发票审核、测试脚本生成、L1 客服、数据录入)优先交给 RPA + LLM;
• 省下来的人力转去做高价值的客户洞察、流程优化,形成“降本–创新”正循环。 -
与财务/业务部门“共创”预算
• CIO 与 CFO 共用一张 ROI 表:把 GPU/云支出拆成“训练、推理、存储、运营”四大科目,逐条找浪费;
• 用 FinOps 框架做实时成本归属、异常检测;
• 用预留实例、竞价实例、Savings Plans 与云厂商议价,最高可再省 40–60 %。 -
清理并简化技术栈
• 盘点遗留系统、重复 SaaS、僵尸数据——“一刀切”下线或迁移到低成本云;
• 统一平台、减少供应商数量,既降低许可费,又方便后续统一接入 AI 能力;
• 把省下的预算再投入到真正产生业务价值的 AI 项目中。
一句话总结:算力不是唯一生产力,“用对模型、用对流程、用对人”才是企业 AI 降本增效的长期主义。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。