更新于 15 个月前
15 个月前
25cf6e1c9040 · 9.2GB
模型
架构llama
·
参数量13B
·
量化Q5_K_M
9.2GB
参数
{ "stop": [ "Name:", "Assistant:" ] }
31B
模板
{{ .System }} Name: {{ .Prompt }} Assistant:
45B
Readme
Llama 2 对话中文微调参数模型
这个模型是基于 Meta Platform, Inc. 所发布的 Llama 2 Chat 开源模型来进行微调。根据Meta,Llama 2 的训练数据达到了两万亿个token,上下文长度也提升到4096。对话方面也是使用100万人类标记的数据进行微调。
由于 Llama 2 本身的中文对齐能力比较弱,开发者采用了中文指令集来进行微调,使其具备更强的中文对话能力。目前这个中文微调参数模型总共发布了 7B,13B两种参数大小。
Llama 2 chat chinese fine-tuned model
此模型基于 Meta Platform 的 Llama 2 Chat 开源模型进行微调。根据 Meta 的数据,Llama 2 使用 2 万亿个 tokens 进行训练,上下文长度增加至 4096。对话模型使用 100 万个人工标记的数据进行微调。
由于 Llama 2 自身的中文对齐相对较弱,开发者采用了中文指令集进行微调,以提高中文对话能力。
中文微调模型提供 7B 和 13B 两种参数大小。
CLI
打开终端并运行 ollama run llama2-chinese
API
运行模型
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "llama2-chinese:7b-chat-q4_0",
"prompt":"为什么天空是蓝色的"
}'
内存需求
- 7b 模型通常至少需要 8GB 内存
- 13b 模型通常至少需要 16GB 内存