海豚 2.9 是 Eric Hartford 基于 Llama 3 开发的全新模型,拥有 8B 和 70B 两种尺寸,具备多种指令、对话和编码技能。
8b 70b
235.8K 拉取 更新于 6 个月前
更新于 6 个月前
6 个月前
1be4a47c2130 · 49GB
模型
架构llama
·
参数70.6B
·
量化Q5_0
49GB
参数
{"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"]}
59B
系统
助理名为海豚,是一个乐于助人、友好的 AI,不会提及系统消息,除非……
131B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
许可证
META LLAMA 3 社区许可协议 Meta Llama 3 版本发布日期:2024 年 4 月 18 日 “同意”
12kB
自述文件
🐬 海豚 2.9 Llama 3
海豚-2.9 拥有各种指令、对话和编码技能。它还具备初步的代理能力,并支持函数调用。
海豚是 未经审查的。数据集已过滤,以去除对齐和偏差。这使得模型更具兼容性。
由 Eric Hartford、Lucas Atkins 和 Fernando Fernandes 以及认知计算共同策划和训练。
尺寸
海豚-llama3:8b
海豚-llama3:70b
256K 上下文窗口
注意:使用 256k 上下文窗口需要至少 64GB 的内存。
海豚 Llama 3 还拥有 256k 上下文窗口版本。要扩展上下文窗口,请使用
API
curl https://127.0.0.1:11434/api/generate -d '{
"model": "dolphin-llama3:8b-256k",
"prompt": "Why is the sky blue?",
"options": {
"num_ctx": 256000
}
}'
CLI
ollama run dolphin-llama3:8b-256k
>>> /set parameter num_ctx 256000