首页 > 快讯 > 新策略由MIT研发,大幅提高大型语言模型的计算效能

新策略由MIT研发,大幅提高大型语言模型的计算效能

发布时间:2025-12-09 16:05:36 | 责任编辑:张毅 | 浏览量:32 次

MIT 的研究团队近日发布了一项创新的计算方法,旨在提高大型语言模型(LLM)的运算效率,同时降低能源消耗。这项名为实例自适应缩放的技术,可以根据提问的复杂程度调整计算资源。研究小组的相关论文于11月初发布,得到了 MIT-IBM 沃森人工智能实验室、MIT-Amazon 科学中心、MIT-Google 计算创新项目以及 MathWorks 的支持。
传统的大型语言模型在处理问题时,往往会使用固定的推理过程奖励模型(PRMs),这使得它们在面对不同复杂度的问题时,计算资源利用率不高,且常常高估成功的概率。MIT 的研究人员通过重新设计 PRMs,使其能够根据不同的问题动态调整推理轨迹的数量。这样,简单的问题可以使用较少的计算资源,而复杂的问题则可以获得更多的推理支持。
研究人员指出,人的思维过程往往是通过分解复杂问题、逐步推理和不断修正来进行的,而 LLM 也同样能从这一过程中获益,能够在推理时获得更多的 “思考” 时间。研究显示,采用这种新方法后,计算资源的使用量减少了一半,同时依然能够提供与现有模型相媲美的准确回答。此外,经过重新校准的 PRMs 也为较小的 LLM 提升了性能。
鉴于这一技术的成功,MIT 团队表示他们将进一步探索该方法在其他应用中的表现,如代码生成和人工智能代理,并计划探索 PRM 校准方法在强化学习等领域的更多应用。
划重点:
💡 研究团队提出的实例自适应缩放技术可以根据问题复杂性动态调整 LLM 的计算资源。
🔍 通过重新设计的推理过程奖励模型,计算资源的利用效率大幅提高,简单问题减少计算,复杂问题获得更多支持。
⚙️ 研究成果显示,该方法能将计算量减半,同时保持相似的准确性,未来将探索其在其他领域的应用潜力。

新策略由MIT研发,大幅提高大型语言模型的计算效能

这是一篇关于MIT 推出新方法,显著提升大型语言模型计算效率的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐