前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >比肩LLama 2? Google发布了开源的AI小模型Gemma

比肩LLama 2? Google发布了开源的AI小模型Gemma

作者头像
御剑
发布于 2024-02-26 13:49:13
发布于 2024-02-26 13:49:13
61200
代码可运行
举报
文章被收录于专栏:微言码道微言码道
运行总次数:0
代码可运行

今天, Google发布了开源的小模型Gemma.

Gemma使用的是与Google的商业Gemini大模型相同的技术, 但专注于小模型. 有意思的是, gemma这个名称来自于拉丁语, 意为“precious stone”, 中文是”宝石“

Gemma包括两个大小的模型, 分别是Gemma 2B与Gemma 7B, 每个模型又包括基础模型及指令微调模型

Gemma 2B与Gemma 7B

Gemma 2B与Gemma 7B都属于小模型行列, 小模型的优势在于普通个人只要有显卡, 你就能在本地把它跑起来并使用它, 而不需要太多的资源需求.

2B就是20亿参数, 7B就是70亿参数. 它们都属于小模型的行列, 如果不理解, 可以对比下Meta开源的Llama 2最高是70B, 也就是700亿参数

Gemma 7B适应于消费级显卡, 也就是4090这一类的消费级显卡就能把它跑起来. 而Gemma 2B则对硬件的要求更低, 适应于CPU或移动设备

Gemma 2B与Gemma 7B都包括两个版本, 基础模型与指令微调模型. 一般我们使用的与AI聊天, 就属于指令微调模型. 指令微调模型经过优化, 能更好的回答用户的问题, 与用户聊天等.

性能表现

每个模型发布, 最喜欢做的一件事就是展现自己的性能评分. Gemma也不例外.

根据Gemma自己提供的数据, 虽然属于小模型, 但分数及性能表现非常好. 参照如下图:

通过这个性能评分表来看, 在以LLama 2 70B做为基准来评分, 可以看到:

  • Gemma-7B的性能表现非常优秀, 在仅1/10的模型参数大小的前提下, 表现只是稍弱于Lllam2 70B
  • Gemma 2B的评分虽然最差, 但考虑到它的模型大小, 也算值得称道的
  • 可以看出, 对于小模型, 微软的PHI-2表现最为优秀. 比Gemma 2B好很多

当然, 官方也提及, 这个性能表现不是针对聊天类, 而是评估基础模型的性能的. 但现在大多数使用AI, 都是聊天为主, 所以聊天类的性能表现, 暂时还没有看到官方提供.

关于小模型, 就不得不提及到微软的PHI-2了, 从上面的性能表现上也可以看出, PHI-2参数为27亿, 但表现却非常优秀. 如果要关注小模型, PHI-2是个不能错过的模型.

运行Gemma

官方的示例中使用了transformers来运行Gemma.

不过实际上, 使用本地模型, 我们大多会使用诸如ollama, vllm这一类的第三方工具来, 更简单方便.

在查阅了ollma官网中支持的模型列表后, 发现Gemma已经被支持了. 建议使用ollama来跑更快.

  1. 确保ollama版本

ollama最新版本是0.1.26. 之前的版本运行Gemma会报错

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
ollama -v
#应该显示 ollama version is 0.1.26

  1. 运行Gemma模型
代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#默认是2b
ollama run gemma
#运行7B
ollama run gemma:7b

  1. 通过API与gemma聊天

ollama支持命令行下直接和模型聊天, 也支持通过API与它交互. 这个API与OpenAI是几乎一致的.

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
curl http://localhost:11434/api/chat -d '{
  "model": "gemma",
  "stream": false,
  "messages": [
    {
      "role": "user",
      "content": "你好,你是谁"
    }
  ]
}'

最后, 模型回复了

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
{
  "model": "gemma",
  "created_at": "2024-02-22T03:01:10.980044Z",
  "message": {
    "role": "assistant",
    "content": "你好!我是大自然语言模型,这是一个人工智能系统。我是一个大型语言模型,可以理解和生成多种语言形式的文本。\n\n请问您有什么可以帮助您的内容吗?"
  }
}

体验下来, 虽然是2B, 但效果确实还可以. 也支持中文.

最后

随着AI的发展, 不仅是开源AI越来越成熟. 开源的小模型也越来越多, 效果越来越优秀.

如果你期望在本地搭建一个AI, 而不是使用在线的诸如OpenAI或文心一言等, 现在其实已经有非常多的选择了.

国内也有非常好的选择, 主要是:

  • Qwen模型
  • YI模型

国外的就更多了.

小模型除了Google的Gemma之外, 还有一个微软的PHI也非常值得关注, 相比下来更优秀. 另外Qwen的小模型, 比如1.5B, 4B其性能表现也很出色, 后续我再慢慢来聊一聊它们.

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-02-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 微言码道 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
一行命令,本地、离线运行大模型
一句话概括:Ollama 是一个允许您在计算机上本地运行开源大语言模型(LLM)的工具
Ai学习的老章
2024/03/26
1.8K0
一行命令,本地、离线运行大模型
Meta Llama3 大模型在 Mac 上的部署和运行
就在前不久,Meta 正式发布了最新版本的开源大模型 Llama3 ,是迄今为止能力最强的开源大模型。
音视频开发进阶
2024/04/25
4.9K0
Meta Llama3 大模型在 Mac 上的部署和运行
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/06
1.2K0
使用Ollama+OpenWebUI本地部署Gemma谷歌AI开放大模型完整指南
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
见状,不少网友纷纷喊话:干的漂亮!但,Stable Diffusion 3啥时候出啊?
新智元
2024/04/12
1540
120亿Stable LM 2上线即开源!2万亿token训练,碾压Llama 2 70B
使用LLaMA-Factory对LLM大模型进行微调!训练专属于你的模型!
如今也是出现了各种各样的大模型,如果想要针对性的让他扮演某个角色我们通常采用的是给他输入prompt(提示词)。
MGS浪疯
2024/11/22
2K2
全球最强开源大模型一夜易主!谷歌Gemma 7B碾压Llama 2 13B,今夜重燃开源之战
这次,重磅开源的Gemma有2B和7B两种规模,并且采用了与Gemini相同的研究和技术构建。
新智元
2024/02/26
5510
全球最强开源大模型一夜易主!谷歌Gemma 7B碾压Llama 2 13B,今夜重燃开源之战
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
1.Ollama 是一个基于 Go 语言开发的本地大模型运行框架!它可以帮助用户在本地快速运行大模型,通过简单的安装指令,可以用一条命令就在本地运行开源大型语言模型。
快乐的小白
2024/04/16
3K4
跟着我,轻松在腾讯云轻量应用服务器搭建自己的大型语言模型!
通过ollama+open webui可视化运行gemma
ollama是专为在Docker容器中部署LLM而设计的,简化了部署和管理流程,目前它支持的模型如下:
数据仓库晨曦
2024/03/06
8.7K0
通过ollama+open webui可视化运行gemma
谷歌Gemma介绍、微调、量化和推理
谷歌的最新的Gemma模型是第一个使用与Gemini模型相同的研究和技术构建的开源LLM。这个系列的模型目前有两种尺寸,2B和7B,并且提供了聊天的基本版和指令版。
deephub
2024/03/01
2.1K0
谷歌Gemma介绍、微调、量化和推理
小模型时代来了?微软推出其最小参数 AI 模型,性能逼近 GPT-3.5
当地时间 4 月 23 日,微软宣布推出其轻量级人工智能模型 Phi-3 Mini 的下一版本,这是该公司计划发布的三个小型模型中的第一个。
深度学习与Python
2024/04/26
2160
小模型时代来了?微软推出其最小参数 AI 模型,性能逼近 GPT-3.5
面向程序员的编程大模型AI
AI模型发展迅速, 一年前还只有OpenAI可以选择, 但才一年多时间, 不仅商业上的AI模型层出不穷, 开源的AI模型也紧追不舍.
御剑
2024/03/13
8840
面向程序员的编程大模型AI
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
11月OpenAI先是用GPTs革了套壳GPT们的命,然后再不惜献祭董事会搏了一波天大的流量。
新智元
2023/12/14
3330
2.7B能打Llama 2 70B,微软祭出「小语言模型」!96块A100 14天训出Phi-2,碾压谷歌Gemini nano
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。它提供了一套简单的工具和命令,使任何人都可以轻松地启动和使用各种流行的LLM,例如GPT-3、Megatron-Turing NLG和WuDao 2.0。
神秘泣男子
2024/06/03
4.9K0
使用 Ollama框架 下载和使用 Llama3 AI大模型的完整指南
Gemma 3 27B版本超越DeepSeek V3:技术要点分析!
Gemma 3 是 Google 最新的开放权重大型语言模型。它有四种尺寸,分别是 10 亿、40 亿、120 亿 和 270 亿 参数,包含基础(预训练)和指令调优版本。Gemma 3 支持 多模态! 4B亿、12B和 27B参数的模型可以处理 图像 和 文本,而1B参数的模型仅限于文本。
致Great
2025/03/14
1.7K0
Gemma 3 27B版本超越DeepSeek V3:技术要点分析!
全球首个「开源GPT-4」出世!Llama 3震撼发布,Meta AI免登录可用
业内惊呼:首个开源GPT-4级的模型,终于来了!开源模型追上闭源模型的历史性一刻,或许就在眼前了?
新智元
2024/04/19
2260
全球首个「开源GPT-4」出世!Llama 3震撼发布,Meta AI免登录可用
NL2SQL基础系列(2):主流大模型与微调方法精选集,Text2SQL经典算法技术回顾七年发展脉络梳理
MiniCPM是一系列端侧语言大模型,主体语言模型MiniCPM-2B具有2.4B的非词嵌入参数量。在综合性榜单上与Mistral-7B相近(中文、数学、代码能力更优),整体性能超越Llama2-13B、MPT-30B、Falcon-40B等模型。在当前最接近用户体感的榜单MTBench上,MiniCPM-2B也超越了Llama2-70B-Chat、Vicuna-33B、Mistral-7B-Instruct-v0.1、Zephyr-7B-alpha等众多代表性开源大模型。
汀丶人工智能
2024/04/10
1.5K0
NL2SQL基础系列(2):主流大模型与微调方法精选集,Text2SQL经典算法技术回顾七年发展脉络梳理
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
谷歌推出了全新的开源模型系列「Gemma」。相比 Gemini,Gemma 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。
机器之心
2024/02/26
3340
开源大模型王座易主!谷歌Gemma杀入场,笔记本可跑,可商用
尝试 Google Gemma 模型 MacOS 本地部署
最近 Google 发布了 Gemma,是 Gemini 的低配版本,既然是 Google 出品那我一定要来吃螃蟹的。所以我本地部署了一个 7b 的版本来尝试使用一下看看效果。同时也来说明一些有关大模型本地部署使用的一些个人体会,比如,你可能会有以下问题:
LinkinStar
2024/03/14
6170
尝试 Google Gemma 模型 MacOS 本地部署
谷歌Gemma 大模型 部署搭建本地详细教程
谷歌 Gemma 是一个基于 Python 的图像分析工具,提供快速和准确的物体检测、定位、分类和风格迁移功能。它使用 TensorFlow Lite 模型,使它可以快速运行在移动设备上。
神秘泣男子
2024/04/07
2K0
谷歌Gemma 大模型 部署搭建本地详细教程
微软发布Phi-3,性能超Llama-3,可手机端运行
Llama-3 刚发布没多久,竞争对手就来了,而且是可以在手机上运行的小体量模型。
机器之心
2024/04/26
1820
微软发布Phi-3,性能超Llama-3,可手机端运行
推荐阅读
相关推荐
一行命令,本地、离线运行大模型
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验