在谷歌,科学家和工程师们致力于让人工智能对每个人都有帮助。谷歌其实长期为开源社区贡献创新成果,例如 Transformers、TensorFlow、BERT、T5、JAX、AlphaFold 和 AlphaCode。北京时间 2 月 21 日晚 21 点,谷歌宣布推出全球性能最强大、轻量级的开源模型系列 Gemma。
Gemma 的技术报告:https://storage.googleapis.com/deepmind-media/gemma/gemma-report.pdf
Kaggle 竞赛:Google – AI Assistants for Data Tasks with Gemma (Kaggle 正在举行一场比赛,向参与者提出挑战,要求他们使用 Gemma 模型为机器学习的工程任务构建出色的人工智能助手。获奖者的名单将在 Google I/O 大会上宣布。)
Gemma 官网:https://ai.google.dev/gemma?hl=zh-cn#community
Gemma 模型卡片:https://www.kaggle.com/models/google/gemma
HuggingFace 博客:Welcome Gemma - Google’s new open LLM
Hugging Chat google/gemma-7b-it
:https://huggingface.co/chat
Gemma 是一个轻量级、最先进的开源模型系列,采用了与创建 Gemini 模型相同的研究和技术。Gemma 由 Google DeepMind 和 Google 的其他团队共同开发,其灵感来源于 Gemini,名字反映了拉丁语 gemma,意为 “宝石”。在发布模型权重的同时,谷歌还将发布相关 AI 工具,以支持开发人员创新、促进协作并指导负责任地使用 Gemma 模型。
Gemma 从今天开始在全球范围内可用。以下是有必要了解的关键细节:
- 推出了两种尺寸的模型权重:Gemma 2B 和 Gemma 7B。每种规模都发布了预训练和指令调整变体。
- 新的《负责任的生成式人工智能工具包》为使用 Gemma 创建更安全的人工智能应用提供了指导和基本工具。
- 谷歌为所有主要框架提供推理和有监督微调(SFT)的工具链:通过原生 Keras 3.0 支持 JAX、PyTorch 和 TensorFlow。
- 现成可用的 Colab 和 Kaggle Notebook,以及与 Hugging Face、MaxText、NVIDIA NeMo 和 TensorRT-LLM 等流行工具的集成,使 Gemma 的上手非常容易。
- 经过预训练和指令调整的 Gemma 模型可在您的笔记本电脑、工作站或谷歌云上运行,并可在 Vertex AI 和谷歌 Kubernetes Engine (GKE) 上轻松部署。
- 跨多个人工智能硬件平台的优化确保了行业领先的性能,包括英伟达 GPUs 和谷歌云 TPUs。
- 使用条款允许所有组织(无论规模大小)进行负责任的商业使用和分发。
负责任的设计
Gemma 是谷歌根据其提出的人工智能原则设计的。为了确保 Gemma 预训练模型的安全可靠,谷歌使用了自动技术来过滤训练集中的某些个人信息和其他敏感数据。
此外,谷歌还使用了大量的微调和基于人类反馈的强化学习(RLHF),使指令调整模型与负责任的行为相一致。为了理解和降低 Gemma 模型的风险概况,谷歌还进行了包括人工红队测试、自动化对抗测试和对模型进行危险活动能力评估在内的全面评估。这些评估在谷歌的模型卡片中有所描述。
谷歌还将与 Gemma 一起发布一个新的负责任的生成式 AI 工具包,以帮助开发者和研究人员优先构建安全和负责任的 AI 应用程序。该工具包包括:
- 安全分类:提供了一种利用最少示例构建稳健安全分类器的新方法。
- 调试:一个模型调试工具帮助您调查 Gemma 的行为并解决潜在问题。
- 指导:您可以根据 Google 在开发和部署大型语言模型方面的经验,获取模型构建者的最佳实践。
Gemma 在同等规模下达到了最先进的性能
- Gemma 模型与 Gemini 模型共享技术和基础设施组件,Gemini 模型是谷歌目前规模最大、功能最强的人工智能模型。这使得 Gemma 2B 和 7B 能够在其尺寸方面相比其他开源模型实现最佳性能。而且 Gemma 模型能够直接在开发人员的笔记本电脑或台式电脑上运行。
- 值得注意的是,Gemma 在关键基准测试中明显超越了更大的模型(Llama-13B),同时遵循严格的安全和负责任输出标准。有关性能、数据集组成和建模方法的详细信息,请参阅 技术报告。
在各种框架、工具和硬件上进行了优化
您可以在自己的数据上微调 Gemma 模型,以适应特定的应用需求,如摘要或检索增强生成(RAG)。Gemma 支持多种工具和系统:
- 多框架工具:带上你最喜欢的框架,提供用于推理和微调的参考实现,支持多框架 Keras 3.0、原生 PyTorch、JAX 和 Hugging Face Transformers。
- 跨设备兼容性:Gemma 模型可以在包括笔记本电脑、台式机、物联网、移动设备和云端在内的流行设备类型上运行,使 AI 功能普遍可用。
- 尖端硬件平台:谷歌与 NVIDIA 合作,针对 NVIDIA GPUs(从数据中心到云端,再到本地 RTX AI PC)优化了 Gemma,确保行业领先的性能,并与尖端技术实现了无缝集成。
- 为谷歌云优化:Vertex AI 提供广泛的 MLOps 工具集,包括多种调优选项和使用内置推理优化的一键部署。通过完全托管的 Vertex AI 工具或使用自管理的 GKE,可以实现高级自定义,包括部署到来自任一平台的 GPU、TPU 和 CPU 的成本高效基础设施。
利用 Google Cloud 赠金,加速学术研究
Gemma 专为推动人工智能创新的开发人员和研究人员组成的开放社区而打造。您现在就可以开始使用 Gemma,免费访问 Kaggle,免费使用 Colab 笔记本,首次使用 Google Cloud 的用户还可获得 300 美元的积分。
在 Google Cloud 中,您可以使用 Gemma 模型来推进您的研究。为了支持科学研究,谷歌提供了最高达 50 万美元的赠金。这笔赠金可以用来抵消在研究中使用 TPU 和 GPU 的费用。谷歌鼓励您立即申请,利用这份赠金来挑战科学研究的边界,为研究社区带来进步。