谷歌近年来发布了一系列语言模型(LLMs)和多模态模型,命名风格有些分散,下面我为你总结Google 各类模型的命名及含义,并对代表性的模型系列进行解析:
🌟 1. Gemma 系列(开源、轻量)
- 例子:
gemma-2b-it
、gemma-7b
、gemma-3-4b-it-qat
命名结构:
gemma-[generation]-[parameter size]-[variant]-[quantization]
组件 | 含义 |
gemma | 模型系列名,轻量开源语言模型(类比 LLaMA/Mistral) |
3 或 2 | 第几代模型(可省略) |
4b , 2b , 7b | 模型大小(参数量) |
it | instruction tuned,指令微调版本 |
qat | quantization-aware training,量化感知训练 |
int4 / int8 | 表示推理量化精度 |
特点:
🔮 2. Gemini 系列(闭源、旗舰)
- 例子:
Gemini 1
, Gemini 1.5 Pro
, Gemini 1.5 Flash
命名结构:
Gemini [generation].[variant]
组件 | 含义 |
Gemini | 谷歌旗舰多模态模型(取代 Bard) |
1 , 1.5 | 表示模型代数 |
Pro | 高性能通用模型(对标 GPT-4) |
Flash | 高速低成本版本(对标 GPT-3.5 Turbo) |
Ultra | 最强版本(尚未全面开放) |
特点:
🧬 3. PaLM / PaLM 2 系列(旧旗舰)
- 例子:
PaLM 2
, PaLM-Coder
, Med-PaLM
命名结构:
PaLM [generation] [-domain/variant]
组件 | 含义 |
PaLM | Pathways Language Model |
2 | 第二代 |
Coder | 编程专用版本 |
Med | 医疗领域微调版本 |
特点:
大模型(540B 级别)
多语言、多任务
现已逐步被 Gemini 替代
🔧 4. T5 / Flan-T5 / UL2 系列(NLP 研究)
- 例子:
T5-base
, Flan-T5-xl
, UL2
名称 | 含义 |
T5 | Text-to-Text Transfer Transformer(将所有任务统一为文本输入输出) |
Flan-T5 | 微调增强的 T5 |
UL2 | Unifying Language Learning,支持多种预训练目标的模型 |
特点:
强大的文本理解与生成能力
可训练和微调
常用于学术和工业研究
🧪 5. 其他特殊模型
模型 | 含义 / 用途 |
BERT | 双向编码器,擅长文本理解(不是生成) |
BigBird | 处理长文本的 BERT 改进版 |
Switch Transformer | 稀疏专家模型,效率优化 |
Imagen / Parti | 文生图模型 |
AudioLM / MusicLM | 音频生成模型 |
Flamingo / Bard | 早期多模态实验项目(现被 Gemini 替代) |
📌 对比
模型系列 | 是否开源 | 主要用途 | 是否多模态 | 对标 |
Gemma | ✅ 开源 | 本地部署、轻量LLM | ❌ | LLaMA/Mistral |
Gemini | ❌ 闭源 | 通用AI助手 | ✅ | GPT-4 系列 |
PaLM | ❌ 部分公开 | NLP模型研究 | ❌ | GPT-3 |
T5/Flan | ✅ 开源 | 任务微调、文本理解 | ❌ | BART/T5 |
Imagen | ❌ 实验性 | 文生图 | ✅ | DALL·E/SD |