13个月前更新
13个月前
990f930d55c5 · 7.4GB
模型
架构llama
·
参数13B
·
量化Q4_0
7.4GB
参数
{ "stop": [ "Name:", "Assistant:" ] }
31B
模板
{{ .System }} Name: {{ .Prompt }} Assistant:
45B
自述文件
Llama 2 对话中文微调参数模型
这个模型基于Meta Platform, Inc.发布的Llama 2 Chat开源模型进行微调。根据Meta的说法,Llama 2的训练数据达到2万亿个token,上下文长度提升到4096。对话模型使用100万个经过人工标注的数据进行微调。
由于Llama 2本身的中文对齐较弱,开发者采用了中文指令集进行微调,从而提升其中文对话能力。目前这个中文微调参数模型共发布了7B和13B两种参数大小。
Llama 2 chat 中文微调模型
此模型基于Meta Platform的Llama 2 Chat开源模型进行微调。根据Meta的说法,Llama 2 使用2万亿个token进行训练,上下文长度增加到4096。对话模型使用100万个经过人工标注的数据进行微调。
由于Llama 2本身的中文对齐能力相对较弱,开发者采用了中文指令集进行微调,以提升其中文对话能力。
中文微调模型提供7B和13B两种参数大小。
命令行界面 (CLI)
打开终端并运行ollama run llama2-chinese
API
运行模型
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "llama2-chinese:7b-chat-q4_0",
"prompt":"为什么天空是蓝色的"
}'
内存需求
- 7b模型通常至少需要8GB内存
- 13b模型通常至少需要16GB内存