基于Llama2的未经审查的模型,支持16K上下文窗口。

13b

32.8K 11个月前

自述文件

Everything Language Model是一个基于Llama 2的模型,具有Totally Not An LLM (Kai Howard)发布的16k上下文。它使用EverythingLM数据集进行训练,并且未经审查。

命令行界面

ollama run everythinglm

加载完成后,将上下文大小更改为16K

/set parameter num_ctx 16384

API

示例

curl -X POST https://127.0.0.1:11434/api/generate -d '{
  "model": "everythinglm",
  "prompt": "Why is the sky blue?"
  "options": {
    "num_ctx": 16384
  }
 }'

参考

13b参数原始来源:Totally Not An LLM