Google继上周公布大型语言模型(large language model,LLM)Gemini 1.5版后,本周再公布开源AI模型Gemma 2个版本,让开发及研究人员在云端、资料中心甚至笔电上自建与执行AI模型。
Gemma是一轻量开源模型家族,由Google DeepMind及Google其他团队开发,它是以开发Gemini模型相同的研究和技术为基础打造而成。Gemma名称源自拉丁语「gemma」,意思是「宝石」。开源的Gemma有二个版本,名为Gemma 2B及7B,Google并释出其他协助开发、协同及负责任使用的工具。Gemma今日已在全球上线(ai.google.dev/gemma)。
除了Gemma开源模型,Google最新AI模型Gemini也在今日全面上线。
Google强调,Gemma和Gemini采用相同技术与基础架构元件,这使得Gemma 2B及7B效能超越其他同样规模的开源模型。Gemma在数项标竿测试上,也超越更大的模型。根据Google提供的数据,不论在推论、数学、撰写程式上,Gemma 7B都超越Llama 2 7B,而在多项数据上,也超越开源模型Mistral 7B。
图片来源_Google
Gemma预训练模型及依指示微调(instruction-tuned)后的模型,可直接执行于开发人员的笔电或工作站、桌机、或者Google Cloud的Vertex AI和Google Kubernetes Engine(GKE)上。VertexAI上有广泛MLOps工具,内建多种微调选项及一键部署。Google表示,不论是代管的Vertex AI工具或自行管理的GKE,都支援客制化,包括能部署到各种GPU、TPU、和CPU等基础架构平台上。
Gemma支援多种工具和系统,允许开发人员和企业以自有资料微调Gemma。Google提供的推论和监督式微调参考实作工具支援多种主要框架,包括Kera 3.0、原生PyTorch、JAX和Hugging Face Transformers。
在硬体方面,Gemma已针对多种AI硬体平台进行过优化,除了Google Cloud TPU外,Google也和Nvidia合作,以便确保Nvidia GPU为基础的云端、本地部署资料中心、到RTX AI PC上具备高执行效能。
Google强调Gemma是根据其安全与负责任的AI原则设计。为了确保Gemma预训练模型的安全与稳定,研发团队使用自动化方法筛选掉资料集中的个资及其他敏感资讯,也使用微调及基于人类反馈的强化式学习(reinforcement learning from human feedback,RLHF)确保模型符合负责任行为。同时为了解及降低Gemma模型的风险,Google也实行严谨的评估,包括红队演练、自动化威胁测试及模型的危险活动能力评估。为让外部用户进行负责任AI的评估,Google昨日也公布新的负责任生成式AI工具包,包括可以简单范例建立安全分类器的工具、模型除错及Google分享的负责任模型开发与部署指引。
为方便开发人员开始使用Gemma,Gemma可整合Kaggle、Colab notebook常见工具如Hugging Face、MaxText、Nvidia MeMo及TensorRT-LLM。为吸引开发人员使用Gemma,Google提供Kaggle notebook、Colab免费方案,以及300美元Google Cloud点数。Google甚至提供高达50万美元等值Google Cloud点数,供研究人员申请执行专案。