谷歌近年来发布了一系列语言模型(LLMs)和多模态模型,命名风格有些分散,下面我为你总结Google 各类模型的命名及含义,并对代表性的模型系列进行解析:
🌟 1. Gemma 系列(开源、轻量)
- 例子:
gemma-2b-it、gemma-7b、gemma-3-4b-it-qat
命名结构:
gemma-[generation]-[parameter size]-[variant]-[quantization]
| 组件 | 含义 |
gemma | 模型系列名,轻量开源语言模型(类比 LLaMA/Mistral) |
3 或 2 | 第几代模型(可省略) |
4b, 2b, 7b | 模型大小(参数量) |
it | instruction tuned,指令微调版本 |
qat | quantization-aware training,量化感知训练 |
int4 / int8 | 表示推理量化精度 |
特点:
🔮 2. Gemini 系列(闭源、旗舰)
- 例子:
Gemini 1, Gemini 1.5 Pro, Gemini 1.5 Flash
命名结构:
Gemini [generation].[variant]
| 组件 | 含义 |
Gemini | 谷歌旗舰多模态模型(取代 Bard) |
1, 1.5 | 表示模型代数 |
Pro | 高性能通用模型(对标 GPT-4) |
Flash | 高速低成本版本(对标 GPT-3.5 Turbo) |
Ultra | 最强版本(尚未全面开放) |
特点:
🧬 3. PaLM / PaLM 2 系列(旧旗舰)
- 例子:
PaLM 2, PaLM-Coder, Med-PaLM
命名结构:
PaLM [generation] [-domain/variant]
| 组件 | 含义 |
PaLM | Pathways Language Model |
2 | 第二代 |
Coder | 编程专用版本 |
Med | 医疗领域微调版本 |
特点:
大模型(540B 级别)
多语言、多任务
现已逐步被 Gemini 替代
🔧 4. T5 / Flan-T5 / UL2 系列(NLP 研究)
- 例子:
T5-base, Flan-T5-xl, UL2
| 名称 | 含义 |
| T5 | Text-to-Text Transfer Transformer(将所有任务统一为文本输入输出) |
| Flan-T5 | 微调增强的 T5 |
| UL2 | Unifying Language Learning,支持多种预训练目标的模型 |
特点:
强大的文本理解与生成能力
可训练和微调
常用于学术和工业研究
🧪 5. 其他特殊模型
| 模型 | 含义 / 用途 |
| BERT | 双向编码器,擅长文本理解(不是生成) |
| BigBird | 处理长文本的 BERT 改进版 |
| Switch Transformer | 稀疏专家模型,效率优化 |
| Imagen / Parti | 文生图模型 |
| AudioLM / MusicLM | 音频生成模型 |
| Flamingo / Bard | 早期多模态实验项目(现被 Gemini 替代) |
📌 对比
| 模型系列 | 是否开源 | 主要用途 | 是否多模态 | 对标 |
| Gemma | ✅ 开源 | 本地部署、轻量LLM | ❌ | LLaMA/Mistral |
| Gemini | ❌ 闭源 | 通用AI助手 | ✅ | GPT-4 系列 |
| PaLM | ❌ 部分公开 | NLP模型研究 | ❌ | GPT-3 |
| T5/Flan | ✅ 开源 | 任务微调、文本理解 | ❌ | BART/T5 |
| Imagen | ❌ 实验性 | 文生图 | ✅ | DALL·E/SD |