自述文件
Everything Language Model 是一个基于 Llama 2 的模型,由 Totally Not An LLM (Kai Howard) 发布,上下文为 16k。它是使用 EverythingLM 数据集 训练的,并且是未经审查的。
CLI
ollama run everythinglm
加载后,将上下文大小更改为 16K
/set parameter num_ctx 16384
API
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "everythinglm",
"prompt": "Why is the sky blue?"
"options": {
"num_ctx": 16384
}
}'
参考
13b 参数原始来源:Totally Not An LLM