首页 > 快讯 > 谷歌人工智能发布 TimesFM-2.5:体积更小,支持长时间系列预测的基础模型

谷歌人工智能发布 TimesFM-2.5:体积更小,支持长时间系列预测的基础模型

发布时间:2025-09-17 14:17:20 | 责任编辑:吴昊 | 浏览量:16 次

谷歌研究团队近日发布了 TimesFM-2.5,这是一个具有2亿参数、解码器单一结构的时间序列基础模型。与前一版本相比,TimesFM-2.5在参数数量上大幅减少,从500M 降低到200M。同时,这款新模型的上下文长度得到了显著提升,达到了16,384个数据点。此外,TimesFM-2.5还支持本地概率预测,现已在 Hugging Face 平台上线,并在 GIFT-Eval 的准确性评估中名列前茅。
时间序列预测是指对随时间变化的数据点进行分析,以识别模式并预测未来的值。它在各个行业中发挥着关键作用,包括零售商品需求预测、天气和降水趋势监测,以及大规模系统(如供应链和能源网络)的优化。通过捕捉时间依赖性和季节性变化,时间序列预测能够在动态环境中支持数据驱动的决策。
与前一版本 TimesFM-2.0相比,TimesFM-2.5的改进主要体现在以下几个方面:首先,模型的参数数量显著减少;其次,最大上下文长度的提升使其能够更好地捕捉多季节性结构和低频成分,减少了预处理的复杂性;最后,新模型还引入了量化预测的可选功能,支持最多1,000个预测点。
为什么上下文长度的增加如此重要?16,384个历史数据点的支持使得模型在单次前向传递中能够更全面地捕捉到数据的长期趋势。这对于一些具有显著历史影响的领域,例如能源负载和零售需求预测,尤其有利。
TimesFM 的核心理念是通过一个单一的解码器基础模型来进行预测,这一理论最早在2024年 ICML 会议的论文中提出。GIFT-Eval(由 Salesforce 发起)旨在为不同领域的评估标准化提供支持,并在 Hugging Face 上设立了公共排行榜,便于模型性能的比较。
TimesFM-2.5标志着时间序列预测的基础模型从概念走向实际应用,展现出在保持较小参数量的同时,提升了模型的准确性和效率。该模型已在 Hugging Face 上上线,并将进一步与 BigQuery 和 Model Garden 进行集成,促进零 - shot 时间序列预测在实际应用中的广泛采用。
huggingface:https://huggingface.co/google/timesfm-2.5-200m-pytorch
划重点:
🌟 ** 更小更快 **:TimesFM-2.5的参数数量减少至200M,同时提高了准确性。
📈 ** 更长上下文 **:支持16,384个输入长度,能够进行更深入的历史数据预测。
🏆 ** 基准领跑 **:在 GIFT-Eval 中,TimesFM-2.5在点预测和概率预测方面均排名第一。

谷歌人工智能发布 TimesFM-2.5:体积更小,支持长时间系列预测的基础模型

这是一篇关于谷歌 AI 推出 TimesFM-2.5:更小巧且具备长上下文的时间序列预测基础模型的文章,内容值得关注。

©️版权声明:
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

最新Ai信息

最新Ai工具

热门AI推荐