更新于 15 个月前
15 个月前
be418e37797b · 6.9GB
模型
架构llama
·
参数13B
·
量化Q3_K_L
6.9GB
参数
{ "num_ctx": 65536 }
17B
说明
Yarn Llama 2 是一个基于 Llama2 的模型,它将其上下文大小扩展到 128k 上下文。它由 Nous Research 开发,通过实施 YaRN 方法进一步训练模型以支持更大的上下文窗口。
CLI
64k 上下文大小
ollama run yarn-llama2
128k 上下文大小
ollama run yarn-llama2:7b-128k
API
示例
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'
参考
YaRN: Efficient Context Window Extension of Large Language Models