更新于 13 个月前
13 个月前
f43bc8c856a8 · 7.4GB
model
archllama
·
parameters13B
·
quantizationQ4_K_S
7.4GB
system
你是一个乐于助人的 AI 助手。
31B
params
{ "stop": [ "User:", "Assistant:" ] }
32B
template
{{ .System }} User: {{ .Prompt }} Assistant:
45B
license
LLAMA 2 社区许可协议 Llama 2 版本发布日期:2023 年 7 月 18 日 “协议” 指的是
7.0kB
自述文件
Everything Language Model 是一个基于 Llama 2 的模型,具有 16k 上下文,由 Totally Not An LLM (Kai Howard) 发布。它使用 EverythingLM Dataset 数据集进行训练,并且是无审查的。
CLI
ollama run everythinglm
加载后,将上下文大小更改为 16K
/set parameter num_ctx 16384
API
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "everythinglm",
"prompt": "Why is the sky blue?"
"options": {
"num_ctx": 16384
}
}'
参考
13b 参数原始来源:Totally Not An LLM