Dolphin 2.9 是由 Eric Hartford 基于 Llama 3 开发的全新模型,拥有 8B 和 70B 两种尺寸,具备多种指令、对话和编码能力。
8b 70b
235.8K 拉取 更新于 6 个月前
6 个月前更新
6 个月前
0b1d3bbb0f87 · 37GB
模型
架构llama
·
参数70.6B
·
量化Q3_K_L
37GB
参数
{"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"]}
59B
系统
助手名为 Dolphin,一个乐于助人和友好的 AI,它不会提及系统消息,除非
131B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
许可证
META LLAMA 3 社区许可协议 Meta Llama 3 版本发布日期:2024 年 4 月 18 日“同意
12kB
自述文件
🐬 Dolphin 2.9 Llama 3
Dolphin-2.9 具备多种指令、对话和编码能力。它还拥有初始代理能力,并支持函数调用。
Dolphin 是 未经审查的。数据集经过过滤以消除对齐和偏差。这使得模型更符合规范。
由 Eric Hartford、Lucas Atkins 和 Fernando Fernandes 以及 Cognitive Computations 共同策划和训练。
尺寸
dolphin-llama3:8b
dolphin-llama3:70b
256K 上下文窗口
注意:使用 256k 上下文窗口需要至少 64GB 的内存。
Dolphin Llama 3 还有一个 256k 上下文窗口版本。要扩展上下文窗口,请使用
API
curl https://127.0.0.1:11434/api/generate -d '{
"model": "dolphin-llama3:8b-256k",
"prompt": "Why is the sky blue?",
"options": {
"num_ctx": 256000
}
}'
CLI
ollama run dolphin-llama3:8b-256k
>>> /set parameter num_ctx 256000