Meta 发布 CATransformers 框架,助推AI领域达成碳减排愿景
发布时间:2025-05-15 09:54:49 | 责任编辑:吴昊 | 浏览量:42 次
在人工智能迅猛发展的今天,Meta 的 FAIR 团队与佐治亚理工学院联合研发了一款名为 CATransformers 的全新框架。该框架以降低碳排放为核心设计理念,旨在通过优化模型架构与硬件性能,显著减少 AI 技术在运营中的碳足迹,为可持续的 AI 发展奠定基础。
随着机器学习技术在各个领域的广泛应用,从推荐系统到自动驾驶,其背后的计算需求不断增加。然而,这些技术的高能耗问题也日益突出。传统的 AI 系统通常需要强大的计算资源,并依赖于定制硬件加速器来运行,这不仅在训练和推理阶段消耗大量能源,还导致运营过程中产生较高的碳排放。此外,硬件的整个生命周期,包括从制造到报废,也会释放 “隐含碳”,进一步加重了生态负担。
当前的减排策略多集中在提升运营效率上,比如优化能耗和提高硬件利用率,但这往往忽视了硬件设计及制造过程中的碳排放。为了应对这一挑战,CATransformers 框架应运而生。它通过多目标贝叶斯优化引擎,综合评估模型架构和硬件加速器的性能,以实现延迟、能耗、精度和总碳足迹之间的平衡。
CATransformers 特别针对边缘推理设备进行了优化,通过对大型 CLIP 模型的剪枝,生成了一些碳排放更低但性能优异的变体。例如,CarbonCLIP-S 与 TinyCLIP-39M 在精度上相当,但碳排放减少了17%,延迟保持在15毫秒以内。而 CarbonCLIP-XS 的精度比 TinyCLIP-8M 提升了8%,同时减少了3% 的碳排放,延迟则低于10毫秒。
研究结果表明,单纯优化延迟的设计可能导致隐含碳增加高达2.4倍。而如果综合考虑碳排放与延迟的设计策略,则可以实现19% 到20% 的总排放削减,且延迟损失微乎其微。CATransformers 的引入为可持续机器学习系统设计提供了坚实的基础,展示了从一开始就考虑硬件能力与碳影响的 AI 开发模式能够实现性能与可持续性的双赢。
随着 AI 技术的不断发展,CATransformers 将为行业提供一条切实可行的减排路径,助力实现绿色科技的未来。
Meta 推出了 CATransformers 框架,这是一个碳感知的机器学习框架,旨在助力 AI 行业实现减排目标。以下是该框架的相关介绍:
研发背景
-
随着机器学习系统在推荐引擎、自动驾驶等众多应用中的广泛应用,其环境可持续性问题日益凸显。这些系统在训练和推理阶段需要大量的计算资源,通常运行在定制的硬件加速器上,能源需求巨大,导致运营碳排放增加。同时,硬件本身的制造、材料和生命周期操作也会产生环境负担,即所谓的“体现碳”。
-
现有减少机器学习系统碳影响的策略较为分散,大多数方法侧重于提高运营效率,减少训练和推理过程中的能源消耗,或提高硬件利用率,但很少有方法同时考虑硬件运行时的碳排放以及硬件设计和制造过程中的碳排放。
框架介绍
-
协同优化:CATransformers 框架将碳作为主要设计考虑因素,允许研究人员通过联合评估模型架构和硬件加速器的性能来实现碳指标的协同优化。该框架针对边缘推理设备,因为这些设备在硬件限制下需要同时控制体现碳和运营碳。
-
多目标贝叶斯优化引擎:与传统方法不同,CATransformers 使用多目标贝叶斯优化引擎进行早期设计空间探索,评估延迟、能源消耗、准确性以及总碳足迹之间的权衡。这种双重考虑使得模型配置能够在不牺牲模型质量或响应性的情况下减少排放。
-
模块架构:该框架的核心功能在于其三模块架构,包括一个多目标优化器、一个 ML 模型评估器和一个硬件估计器。模型评估器通过修剪大型基础 CLIP 模型来生成模型变体,改变层数、前馈网络大小、注意力头和嵌入宽度等维度。这些修剪后的版本随后传递给硬件估计器,后者使用分析工具来估计每种配置的延迟、能源使用量和总碳排放量。优化器则通过平衡所有指标来选择表现最佳的设置。
实际成果
-
CarbonCLIP 模型家族:CATransformers 的实际输出是 CarbonCLIP 模型家族,与现有的小型 CLIP 基线相比,取得了显著的改进。例如,CarbonCLIP-S 的准确性与 TinyCLIP-39M 相同,但总碳排放量减少了 17%,并且延迟保持在 15 毫秒以下。更紧凑的 CarbonCLIP-XS 在准确性上比 TinyCLIP-8M 提高了 8%,同时减少了 3% 的排放,并确保延迟低于 10 毫秒。
-
优化对比:仅针对延迟进行优化的配置,其硬件需求通常会翻倍,从而导致体现碳显著增加。相比之下,针对碳和延迟进行优化的配置实现了 19-20% 的总排放量减少,且几乎没有延迟权衡。
意义与展望
-
CATransformers 为构建环保型 AI 系统提供了一条实际路径,通过从一开始就将模型设计与硬件能力对齐,并考虑碳影响,研究人员证明了可以做出更智能的选择,这些选择不仅仅是追求速度或能源节省,而是真正减少排放。
-
该框架为可持续机器学习系统设计奠定了基础,将环境指标嵌入到优化流程中。随着 AI 在各行业的持续扩展,像 CATransformers 这样的工具将帮助开发者重新思考性能与可持续性如何齐头并进。
本网站(https://aigc.izzi.cn)刊载的所有内容,包括文字、图片、音频、视频等均在网上搜集。
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。除此以外,将本网站任何内容或服务用于其他用途时,须征得本网站及相关权利人的书面许可,并支付报酬。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。