更新于 16 个月前
16 个月前
753deb72fbcd · 29GB
模型
架构falcon
·
参数量41.8B
·
量化Q5_0
29GB
说明文件
Falcon 是一个高性能大型语言模型系列,由阿布扎比政府高级技术研究委员会下属的研究中心技术创新研究所 (TII) 构建。
CLI (命令行界面)
ollama run falcon "Why is the sky blue?"
API (应用程序编程接口)
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
参数计数
参数计数 | 建议内存 | ||
---|---|---|---|
70 亿 | 8GB | 查看 | ollama run falcon:7b |
400 亿 | 32GB | 查看 | ollama run falcon:40b |
1800 亿 | 192GB | 查看 | ollama run falcon:180b |
变体
chat (聊天) |
聊天模型是在聊天和指令数据集上进行微调的,其中混合了几个大规模对话数据集。 |
instruct (指令) |
指令模型遵循指令,并在 baize 指令数据集上进行微调。 |
text (文本) |
文本模型是没有任何对话微调的基础模型,最适合用于简单的文本补全。 |
Falcon 180B
截至 2023 年 9 月,拥有 1800 亿个参数的模型 Falcon 180B 是性能最佳的公开 LLM。它介于 OpenAI 的 GPT 3.5 和 GPT 4 之间。 要运行 Falcon 180B,建议使用至少 192GB 总内存的强大系统。
注意:Falcon 180B 在与其较小的兄弟姐妹不同的许可下发布,该许可限制了在某些条件下的商业用途。 有关更多信息,请参阅模型详细信息和许可。