李彦宏讨论DeepSeek的问题:指出其速度慢且成本高
发布时间:2025-04-25 15:35:51 | 责任编辑:吴昊 | 浏览量:6 次
今日,百度在武汉举办的Create2025AI开发者大会上,创始人李彦宏以“模型的世界,应用的天下”为主题发表近60分钟演讲,正式发布文心大模型4.5Turbo与X1Turbo版本,并披露DeepSeek模型在百度生态中的落地进展与现存挑战。
李彦宏透露,百度旗下文小言、百度搜索、百度地图等核心产品已接入DeepSeek满血版模型,在智能客服、搜索增强等场景实现效率提升。但他同时坦言,DeepSeek目前仍存在技术局限:“该模型仅支持文本处理,无法完成图片、音频、视频的多模态内容生成,而百度智能云超六成企业客户对多模态能力有明确需求。”他以电商直播场景为例指出,DeepSeek因幻觉率偏高(即生成错误信息),在金融、医疗等高风险领域难以直接应用,“若在直播中错误推送‘买一送十’优惠,商家将面临不可控的损失”。此外,其响应速度较慢、调用成本偏高的问题也限制了规模化落地——当前中国市场多数大模型API调用成本低于DeepSeek满血版,且响应速度更快。
针对上述痛点,百度此次发布的文心大模型双版本提出三大升级方向:多模态、强推理、低成本。李彦宏强调,多模态已成为下一代AI模型的“入场券”,“纯文本模型的市场份额将加速萎缩,企业需要能同时处理图文、音视频的通用型模型”。性能方面,文心4.5Turbo每百万token输入价格降至0.8元,输出价格3.2元,较前代版本推理速度提升2倍,成本下降80%;X1Turbo版本输入价格1元、输出4元,在性能提升的同时,价格再压缩50%,且支持中英双语、法律医疗等垂直领域推理优化。
“成本是AI应用爆发的核心掣肘。”李彦宏直言,当前开发者构建AI应用的最大障碍是算力成本高昂,而技术创新的本质往往源于成本结构的突破。他以自动驾驶为例指出,2015年激光雷达单价超10万美元,如今已降至千元级,直接推动L4级技术普及。文心大模型此次降价,旨在降低企业部署门槛,“让中小企业用得起大模型,让创业者敢于试错,最终催生千行百业的AI原生应用”。
据百度技术团队透露,文心4.5Turbo与X1Turbo已同步开放公有云及私有化部署,支持按需调用与定制化训练。市场分析认为,百度通过技术迭代与成本重构,试图在模型能力与商业化落地间寻找平衡点,而多模态能力与价格优势或将成为其争夺企业客户的关键筹码。
在2025年4月25日的百度AI开发者大会上,李彦宏提到DeepSeek存在以下痛点:
速度慢
-
DeepSeek在处理数据和生成内容时的速度相对较慢,这可能会影响其在一些对实时性要求较高的场景中的应用效果。
-
中国市场上绝大多数的大模型API调用速度都比DeepSeek满血版要快。
成本高
-
DeepSeek的使用成本较高,其API调用价格相对较高,这可能会限制一些企业和开发者对其的使用频率和应用范围。
-
相比之下,百度新发布的文心大模型4.5 Turbo和X1 Turbo在价格上更具竞争力,且速度更快。
功能限制
-
DeepSeek目前只能处理文本,还不能理解和生成图片、音频、视频等多媒体内容,这限制了其在多模态应用场景中的应用。
-
李彦宏指出,多模态是未来基础模型的标配,纯文本模型的市场会越变越小。
幻觉率高
-
DeepSeek在生成内容时的幻觉率较高,即生成的内容可能与实际情况不符,这在一些需要高准确性的场景中可能会带来问题。
-
例如在电商直播中,如果模型幻觉出一个不存在的优惠活动,可能会导致商家遭受损失。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。
上一篇: Gemini和ChatGPT有什么区别?
下一篇: Gemini支持哪些API接口?