海豚 2.9 是一个新的模型,由 Eric Hartford 基于 Llama 3 开发,拥有 8B 和 70B 两种尺寸,具备各种指令、对话和编码技能。
8b 70b
235.8K 拉取 更新于 6 个月前
更新于 6 个月前
6 个月前
39cf3e48a702 · 40GB
模型
架构llama
·
参数70.6B
·
量化Q4_0
40GB
参数
{"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"]}
59B
系统
该助手名为海豚,是一个乐于助人和友好的 AI,不会提到系统消息,除非…
131B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
许可证
META LLAMA 3 社区许可协议 Meta Llama 3 版本发布日期:2024 年 4 月 18 日“同意…
12kB
自述文件
🐬 海豚 2.9 Llama 3
海豚-2.9 拥有各种指令、对话和编码技能。它还具有初步的代理能力,并支持函数调用。
海豚是 未经审查的。数据集已被过滤以去除对齐和偏差。这使得模型更符合要求。
由 Eric Hartford、Lucas Atkins 和 Fernando Fernandes 以及认知计算团队精心策划和训练。
尺寸
海豚-llama3:8b
海豚-llama3:70b
256K 上下文窗口
注意:使用 256k 上下文窗口需要至少 64GB 的内存。
海豚 Llama 3 还提供 256k 上下文窗口版本。要扩展上下文窗口,请使用
API
curl https://127.0.0.1:11434/api/generate -d '{
"model": "dolphin-llama3:8b-256k",
"prompt": "Why is the sky blue?",
"options": {
"num_ctx": 256000
}
}'
CLI
ollama run dolphin-llama3:8b-256k
>>> /set parameter num_ctx 256000