过去几周,谷歌一直在推广其各种GeminiAI 模型。今天,它针对特定用户类型推出了一款更小的新型号。新模型被称为 Gemma,它的受众是那些想要使用本地模型而不是通过云访问人工智能的研究人员。
谷歌在一篇博客文章中表示,Gemma 是由其位于英国的 DeepMind 与该公司的其他团队一起开发的。Gemma 确实与其哥哥 Gemini 共享一些“技术和基础设施组件”。有两种特定型号可供选择:Gemma 2B 和 Gemma 7B。研究人员可以访问“预先训练和指令调整的 Gemma 模型”,这些模型可以在本地台式机或笔记本电脑以及云端运行。它将经过优化,可在 Nvidia GPU 和 Google Cloud TPU(张量处理单元)上运行。
谷歌声称,虽然 Gemma 2B 和 7B 模型在技术上比其他大型语言模型 (LLM) 更小,但表示它们超越了“在关键基准上明显更大的模型”,包括Meta 的 Llama 2。
Google 现在正在其Kaggle 研究人员平台上免费向研究人员提供 Gemma ,并且它也可以作为免费的Colab 笔记本使用。如果您尚未使用 Google Cloud,则可以使用 300 美元的免费积分访问 Gemma,研究人员可以购买最多 500,000 美元的积分来通过 Google Cloud 使用它。
本月早些时候,谷歌宣布其Bard 聊天机器人将更名为 Gemini。它还推出了适用于 Android 的移动 Gemini 应用程序,并通过适用于 iOS 设备的 Google 搜索应用程序提供对 AI 模型的访问。该公司还同时推出了 Gemini Advanced,这是其最先进的型号,每月价格为 19.99 美元。
标签: