基于Llama 2模型微调,提升中文对话能力。

7b 13b

140.2K 13个月前

自述文件

Llama 2 对话中文微调参数模型

这个模型基于Meta Platform, Inc.发布的Llama 2 Chat开源模型进行微调。根据Meta的说法,Llama 2的训练数据达到了两万亿个token,上下文长度也提升到4096。对话模型使用一百万个经过人工标注的数据进行微调。

由于Llama 2本身的中文对齐能力较弱,开发者采用了中文指令集进行微调,从而提升了其中文对话能力。目前这个中文微调参数模型共发布了7B和13B两种参数大小。

Llama 2 chat 中文微调模型

This model is fine-tuned based on Meta Platform’s Llama 2 Chat open source model. According to Meta, Llama 2 is trained on 2 trillion tokens, and the context length is increased to 4096. The chat model is fine-tuned using 1 million human labeled data.

Since the Chinese alignment of Llama 2 itself is relatively weak, the developer, adopted a Chinese instruction set for fine-tuning to improve the Chinese dialogue ability.

The Chinese fine-tuned models are available in 7B and 13B parameter sizes.

命令行界面 (CLI)

打开终端并运行ollama run llama2-chinese

API

运行模型

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "llama2-chinese:7b-chat-q4_0",
  "prompt":"为什么天空是蓝色的"
 }'

内存需求

  • 7b模型通常至少需要8GB内存
  • 13b模型通常至少需要16GB内存

参考

FlagAlpha

FlagAlpha