更新于 15 个月前
15 个月前
5a72b555332e · 2.8GB
模型
archllama
·
parameters6.74B
·
quantizationQ2_K
2.8GB
参数
{ "num_ctx": 65536 }
17B
Readme
Yarn Llama 2 是一个基于 Llama2 的模型,它扩展了其上下文大小至 128k 上下文。它由 Nous Research 开发,通过实施 YaRN 方法进一步训练模型以支持更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-llama2
128k 上下文大小
ollama run yarn-llama2:7b-128k
API
示例
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'