基于 Llama 2 模型微调,以提升中文对话能力。

7b 13b

140.2K 13 个月前

自述文件

Llama 2 对话中文微调参数模型

这个模型基于 Meta Platform, Inc. 发布的 Llama 2 Chat 开源模型进行微调。根据 Meta 的说法,Llama 2 的训练数据达到了两万亿个 token,上下文长度提升到 4096。对话模型使用一百万个人类标注的数据进行微调。

由于 Llama 2 本身的中文对齐能力较弱,开发者采用了中文指令集进行微调,从而提升其中文对话能力。目前发布了 7B 和 13B 两种参数大小的中文微调参数模型。

Llama 2 chat 中文微调模型

此模型基于 Meta Platform 的 Llama 2 Chat 开源模型进行微调。根据 Meta 的说法,Llama 2 使用两万亿个 token 进行训练,上下文长度增加到 4096。对话模型使用一百万个人类标注的数据进行微调。

由于 Llama 2 本身在中文方面的对齐能力相对较弱,开发者采用了中文指令集进行微调,以提升其中文对话能力。

中文微调模型提供 7B 和 13B 两种参数大小。

命令行界面 (CLI)

打开终端并运行 `ollama run llama2-chinese`

API

运行模型

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "llama2-chinese:7b-chat-q4_0",
  "prompt":"为什么天空是蓝色的"
 }'

内存需求

  • 7b 模型通常至少需要 8GB RAM
  • 13b 模型通常至少需要 16GB RAM

参考

FlagAlpha

FlagAlpha