海豚 2.9 是由 Eric Hartford 基于 Llama 3 推出的一个新模型,具有 8B 和 70B 两种尺寸,并具备各种指令、对话和编码技能。
8b 70b
235.8K 拉取 更新于 6 个月前
更新于 6 个月前
6 个月前
be3648d90cec · 44GB
模型
架构llama
·
参数70.6B
·
量化Q4_1
44GB
参数
{"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"]}
59B
系统
助手名为海豚,是一个乐于助人、友好的 AI,不会提到系统消息,除非
131B
模板
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
许可证
META LLAMA 3 社区许可协议 Meta Llama 3 版本发布日期:2024 年 4 月 18 日 “同意
12kB
自述文件
🐬 海豚 2.9 Llama 3
海豚 2.9 具有各种指令、对话和编码技能。它还具有初始代理能力,并支持函数调用。
海豚是 未经审查的。数据集已过过滤,以移除对齐和偏差。这使模型更易于合规。
由 Eric Hartford、Lucas Atkins 和 Fernando Fernandes 以及认知计算团队策划和训练。
尺寸
海豚-llama3:8b
海豚-llama3:70b
256K 上下文窗口
注意:使用 256k 上下文窗口需要至少 64GB 内存。
海豚 Llama 3 还提供 256k 上下文窗口版本。要扩展上下文窗口,请使用
API
curl https://127.0.0.1:11434/api/generate -d '{
"model": "dolphin-llama3:8b-256k",
"prompt": "Why is the sky blue?",
"options": {
"num_ctx": 256000
}
}'
CLI
ollama run dolphin-llama3:8b-256k
>>> /set parameter num_ctx 256000