更新于 15 个月前
15 个月前
cf9cd5b25466 · 13GB
模型
archllama
·
parameters6.74B
·
quantizationF16
13GB
参数
{ "num_ctx": 65536 }
17B
自述文件
Yarn Llama 2 是基于 Llama2 的模型,它将其上下文大小扩展到 128k 上下文。它由 Nous Research 开发,通过实施 YaRN 方法进一步训练模型以支持更大的上下文窗口。
命令行界面
64k 上下文大小
ollama run yarn-llama2
128k 上下文大小
ollama run yarn-llama2:7b-128k
应用程序编程接口
示例
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "yarn-llama2:7b-128k",
"prompt":"Here is a story about llamas eating grass"
}'