更新于 12 个月前
12 个月前
583a72ecd078 · 6.9GB
自述文件
Llama 2 对话中文微调参数模型
此模型基于 Meta Platform, Inc. 发布的 Llama 2 Chat 开源模型进行微调。根据 Meta,Llama 2 的训练数据达到了两万亿个 token,上下文长度也提升到 4096。对话方面使用 100 万人类标记的数据进行微调。
由于 Llama 2 自身的中文对齐比较弱,开发者采用了中文指令集进行微调,使其具备较强的中文对话能力。目前,此中文微调参数模型共发布了 7B 和 13B 两种参数大小。
Llama 2 chat chinese fine-tuned model
This model is fine-tuned based on Meta Platform’s Llama 2 Chat open source model. According to Meta, Llama 2 is trained on 2 trillion tokens, and the context length is increased to 4096. The chat model is fine-tuned using 1 million human labeled data.
Since the Chinese alignment of Llama 2 itself is relatively weak, the developer, adopted a Chinese instruction set for fine-tuning to improve the Chinese dialogue ability.
The Chinese fine-tuned models are available in 7B and 13B parameter sizes.
CLI
打开终端并运行 ollama run llama2-chinese
API
运行模型
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "llama2-chinese:7b-chat-q4_0",
"prompt":"为什么天空是蓝色的"
}'
内存需求
- 7b 模型通常需要至少 8GB 的 RAM
- 13b 模型通常需要至少 16GB 的 RAM