快讯:Gemma-我们最先进的开放模型

发布时间:2024-02-21 21:41:31 · 责任编辑:字母汇 · 浏览量:95 次

原文始发于微信公众号(谷歌黑板报):Gemma:我们最先进的开放模型

Gemma:我们最先进的开放模型

作者:

Jeanine Banks

Developer X 和开发者关系副总裁兼总经理

Tris Warkentin

Google DeepMind 总监

在 Google ,我们致力于让 AI 助力每个人。长期以来,我们对开放社区的创新贡献了许多成果,如  Transformers、TensorFlow、BERT、T5、JAX、AlphaFold 和 AlphaCode。今天,我们很高兴地介绍 Google 的新一代开放模型,以协助开发者和研究人员负责任地构建 AI。

开放模型 Gemma

Gemma 是先进的轻量级开放模型系列,采用了与创建 Gemini 模型相同的研究和技术。受到 Gemini 的启发,Google DeepMind 和 Google 其他团队合作开发了 Gemma,并用拉丁语中意为“宝石”的 gemma 为其命名。在发布模型权重的同时,我们还推出了一系列工具,旨在支持开发者创新,促进合作,并指导如何负责任地使用 Gemma 模型。

从今天起,Gemma 在全球范围内开放使用。以下是有关该模型的关键细节:

  • 我们将发布两种权重规模的模型:Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本。

  • 新的 Responsible Generative AI Toolkit 为使用 Gemma 创建更安全的 AI 应用程序提供指导和必备工具。

  • 我们通过原生 Keras 3.0 为所有主要框架(JAX、PyTorch 和 TensorFlow)提供推理和监督微调(SFT)的工具链。

  • 上手即用 Colab 和 Kaggle notebooks,以及与 Hugging Face、MaxText 和 NVIDIA NeMo 等受欢迎的工具集成,让开始使用 Gemma 变得简单容易。

  • 经过预训练和指令微调的 Gemma 模型可以在您的笔记本电脑、工作站或 Google Cloud 上运行,并可轻松部署在 Vertex AI 和 Google Kubernetes Engine(GKE)上。

  • 基于多个 AI 硬件平台进行优化,确保业界领先的性能表现,其中包括 NVIDIA GPUs 和 Google Cloud TPUs。

  • 使用条款允许所有组织(无论规模大小)负责任地进行商用和分发。

同等规模最领先的性能

Gemma 模型与我们规模最大、能力最强的 AI 模型 Gemini 共享技术和基础架构。这使得 Gemma 2B 和 7B 与其他开放模型相比,展现出同等规模最先进的性能。同时,Gemma 可以直接在开发者的笔记本电脑或台式机上运行。值得注意的是,Gemma 在关键基准测试集上大大超过了更大的模型,同时还严格遵守了我们对安全和负责任输出的标准。有关性能、数据集对比和建模方法的详细信息,请参见技术报告。

Gemma:我们最先进的开放模型

负责任的设计

Gemma 在设计时将我们的 AI 原则放在首位。为了使 Gemma 预训练模型安全可靠,我们使用自动技术,从训练集中过滤掉特定的个人信息及其他敏感数据。此外,我们进行了大量的微调和人类反馈强化学习(RLHF),使我们的指令微调模型与负责任的行为保持一致。为了解并降低 Gemma 模型带来的风险,我们进行了强有力的评估,包括手工红队测试、自动对抗性测试,以及对危险活动的模型能力评估。我们在 Model Card 中阐述了这些评估。

我们与 Gemma 一道发布了新的 Responsible Generative AI Toolkit,帮助开发者和研究人员优先构建安全和负责任的 AI 应用。这些工具包括:

  • 安全分类:我们提供了一种新的方法,可利用最少的样品来构建稳定的安全分类器。

  • 调试工具:模型式调式工具帮助你了解  Gemma 的行为,并解决潜在的问题。

  • 应用指南:你可以根据 Google 在开发和部署大型语言模型方面的经验,获取模型构建者的最佳实践。

跨框架、工具和硬件的优化

您可以基于自己的数据微调 Gemma 模型以适应特定应用需求,例如摘要或检索增强生成 (RAG)。Gemma 可支持多种工具和系统:

  • 多框架工具:Gemma 提供 Keras 3.0、原生 PyTorch、JAX 和 Hugging Face Transformers 多个框架的参考实现,您可以选择熟悉的框架进行推理和微调。

  • 跨设备兼容Gemma 模型可以在笔记本电脑、台式机、物联网、移动设备和云端等多个主流设备类型上运行,支持广泛的 AI 功能。

  • 前沿的硬件平台: 我们与 NVIDIA 合作,使用 NVIDIA GPU 来优化 Gemma 模型,确保业界领先的性能与前沿技术的整合应用。

  • 基于 Google Cloud 的优化:Vertex AI 提供广泛的 MLOps 工具集,其中包含一系列微调选项和内置推理优化的一键部署功能。您可以使用完全托管的 Vertex AI 工具或自行管理的 GKE 来进行高级定制,以经济高效的方式自行选择部署在 GPU、TPU 或 CPU 基础设施上。

免费的积分来进行研究和开发

Gemma 为开放社区构建,旨在推动开发者和研究人员的 AI 创新。您可以通过 Kaggle 的免费访问权限、Colab notebooks 免费层、以及 Google Cloud 新用户可获得的 300 美元积分立即开始使用 Gemma。研究人员还可以申请高达 50 万美元的 Google Cloud 积分以加速他们的项目。

入门指南

您可以在 ai.google.dev/gemma 了解更多关于 Gemma 的信息并访问快速入门指南。

随着 Gemma 模型系列的不断扩展,我们期待看到基于 Gemma 的多元化应用出现。敬请关注未来几周的活动和机会,与我们进行交流、学习并使用 Gemma  进行开发构建。

我们很期待看到您的创新!