海豚 2.9 是由 Eric Hartford 基于 Llama 3 创建的一个新的模型,拥有 8B 和 70B 两种尺寸,具有多种指令、对话和编码技能。
8b 70b
235.8K 拉取 更新于 6 个月前
更新于 6 个月前
6 个月前
c76eccdaa1d4 · 50GB
模型
架构llama
·
参数70.6B
·
量化Q5_K_M
50GB
参数
{"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"]}
59B
系统
助手名为海豚,是一个乐于助人和友好的 AI,不会提到系统消息 unl
131B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
许可证
META LLAMA 3 社区许可协议 Meta Llama 3 版本发布日期:2024 年 4 月 18 日 “Agree
12kB
自述文件
🐬 海豚 2.9 Llama 3
海豚-2.9 拥有多种指令、对话和编码技能。它还具有初步的代理能力,并支持函数调用。
海豚是 未经审查的。数据集已过滤以去除对齐和偏差。这使得模型更加合规。
由 Eric Hartford、Lucas Atkins、Fernando Fernandes 和 Cognitive Computations 策划和训练。
尺寸
海豚-llama3:8b
海豚-llama3:70b
256K 上下文窗口
注意:使用 256k 上下文窗口需要至少 64GB 的内存。
海豚 Llama 3 还有一个 256k 上下文窗口版本。要扩展上下文窗口,请使用
API
curl https://127.0.0.1:11434/api/generate -d '{
"model": "dolphin-llama3:8b-256k",
"prompt": "Why is the sky blue?",
"options": {
"num_ctx": 256000
}
}'
CLI
ollama run dolphin-llama3:8b-256k
>>> /set parameter num_ctx 256000