更新于 15个月前
15个月前
cec9e8d58901 · 4.8GB
model
archllama
·
parameters6.74B
·
quantizationQ5_K_M
4.8GB
params
{ "num_ctx": 65536 }
17B
自述文件
Yarn Llama 2 是基于 Llama2 的模型,它将其上下文大小扩展到高达 128k 上下文。它由 Nous Research 开发,通过实施 YaRN 方法进一步训练模型以支持更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-llama2
128k 上下文大小
ollama run yarn-llama2:7b-128k
API
示例
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'
参考
YaRN: Efficient Context Window Extension of Large Language Models