1. Base模型和Chat模型
base模型,也就是基础模型,是在海量不同文本上训练出来的预测后续文本的模型。后续文本未必是对指令和对话的响应。
chat模型,也就是对话模型,是在base基础上通过对话记录(指令-响应)继续做微调和强化学习,让它接受指令和用户对话时,续写出来的是遵循指令的,人类预期的assistant的响应内容。
2. 多模态LLM
多模态LLM将文本和其他模态的信息结合起来,比如图像、视频、音频和其他感官数据,多模态LLM接受了多种类型的数据训练,有助于transformer找到不同模态之间的关系,完成一些新的LLM不能完成的任务,比如图片描述,音乐解读,视频理解等。
3. Agent模型
LLM具备agent大脑的能力,与若干关键组件协作,包括:
- 规划(Planning):子目标拆解,纠错,反思和完善。
- 记忆(Memory):短期记忆(上下文,长窗口),长期记忆(通过搜索或者向量引擎实现)。
- 工具使用(Tool Use):模型学习调用外部API获取额外的能力。
4. Code模型
Code模型在模型的预训练和SFT中加入了更多的代码数据占比,在代码的一系列任务,比如代码补齐,代码纠错,以及零样本完成编程任务指令。同时,根据不同的代码语言,也会有python,java等更多的专业语言代码模型。
5. 提示(Prompting)与微调(Fine-tuning)
5.1 提示 (Prompting)
这是最基础的使用方式,就像你现在和我聊天一样。
- 机制:你给模型一个指令(Prompt),模型根据它预先训练好的知识给出回答(Output)。
- 特点:
- 即时性:不需要修改模型本身,改改说话方式(提示词工程)就能获得不同的效果。
- 局限性:模型的知识储备停留在它被训练完的那一刻,它没有学习到你的特定新知识。
- 打个比方:就像请一位非常有才华的老师来帮忙。你只需要通过写信(提示词)告诉他你的要求,他就会根据自己的学识给你写出回信。
5.2 微调 (Fine-tuning)
这是一种更深层的"改造"过程。
- 机制:将特定的微调数据(Fine-tuning data)喂给模型,通过再次训练,修改模型内部的参数。
- 特点:
- 专业化:让模型学习特定的语气、格式或某个专业领域的深度知识(比如让它变得像个专业的法律顾问或医生)。
- 持久性:训练完成后,模型本身发生了变化,以后即使不给复杂的提示,它也天然具备这种专业能力。
- 打个比方:就像把这位才华横溢的老师送去参加一个为期三个月的特种兵训练(微调)。训练结束后,他不仅是位老师,还是个专业的特种兵。