自述文件
Everything Language Model是一个基于Llama 2的模型,具有由Totally Not An LLM (Kai Howard)发布的16k上下文。它使用EverythingLM数据集进行训练,并且未经审查。
CLI
ollama run everythinglm
加载完成后,将上下文大小更改为16K
/set parameter num_ctx 16384
API
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "everythinglm",
"prompt": "Why is the sky blue?"
"options": {
"num_ctx": 16384
}
}'
参考
13b参数原始来源:Totally Not An LLM