下载下来只有 241 MB。
本周四,谷歌正式发布了 Gemma 3 的最新一款模型。
Gemma 3 270M 是一款紧凑型、拥有 2.7 亿个参数的小体量语言模型,专为特定任务的微调而设计,具备强大的指令跟踪和文本结构化能力。
它继承了 Gemma 3 系列的先进架构和强大的预训练功能,同时为小尺寸模型带来了强大的指令执行能力。谷歌展示的 IFEval 基准测试成绩所示,在同级模型上,Gemma 3 270M 树立了新的性能水平,使复杂的 AI 功能更容易应用于设备端和研究应用。
IFEval 旨在测试模型执行可验证指令的能力。
Gemma 3 270M 的核心功能主要包括如下几个方面:
对于 1.7 亿个嵌入参数,如何在训练过程中保证不出现嵌入崩溃,谷歌并没有对技术细节进行太多解释。不过在谷歌发布后,AI 社区很快开始了研究。
Sebastian Raschka 第一时间进行了简单的解读,他注意到了新模型的一些架构特点。
谷歌表示,Gemma 3 270M 是一款高质量的基础模型,开箱即用,适用于专业化的任务。在实践中,人们应从紧凑而强大的模型入手,进而构建出精简、快速且运营成本较低的生产系统。
这种思路已在现实世界中取得了很好的成果。谷歌举了 Adaptive ML 与 SK Telecom 合作的成果的例子。面对细致入微的多语言内容审核挑战,他们选择了专业化。Adaptive ML 没有使用大规模通用模型,而是对 Gemma 3 4B 模型进行了微调。从结果上看,专业化的 Gemma 模型达到甚至超越了更大型专有模型在其特定任务上的表现。
Gemma 3 270M 旨在让开发者更进一步利用这种方法,为定义明确的任务释放更高的效率。它是创建一系列小型专业模型的理想起点,每个模型都是各自任务的专家。
这种专业化的力量不仅适用于企业任务,还能帮助个人开发者构建创意应用程序。例如,Hugging Face 团队的成员使用 Gemma 3 270M 为一款使用 Transformers.js 的睡前故事生成器网页应用提供支持。可知,该模型的体量和性能使其非常适合离线、基于网页的创意任务。
谷歌表示,Gemma 3 270M 适用于以下场景:
在新模型上,谷歌提供了快速入门的方案和工具。你可以在 Gemma 文档中找到使用 Gemma 3 270M 进行完整微调的指南:https://ai.google.dev/gemma/docs/core/huggingface_text_full_finetune
谷歌同时发布了 Gemma 3 270M 的预训练模型和指令调优模型:https://huggingface.co/collections/google/gemma-3-release-67c6c6f89c4f76621268bb6d
你可以在 Vertex AI 上试用模型,或使用 llama.cpp、Gemma.cpp、LiteRT、Keras 和 MLX 等热门推理工具进行试用:https://console.cloud.google.com/vertex-ai/publishers/google/model-garden/gemma3
现在,你也可以在 Colab 上尝试自行尝试微调,只需不到 5 分钟即可完成。
过去几个月,谷歌的 Gemma 开放模型系列经历了一系列发布。在 4 月到 5 月,谷歌推出了 Gemma 3 和 Gemma 3 QAT,为单云和桌面级 GPU 提供了不错的 AI 性能。随后在 6 月 25 日,面向移动端的 Gemma 3n 正式发布,为手机等设备引入了强大的实时多模态 AI 能力。
谷歌表示,截止上周,Gemma 系列的累积下载量已经突破了两亿次。
参考内容:
https://developers.googleblog.com/en/introducing-gemma-3-270m/