更新于 15 个月前
15 个月前
4280f7257e73 · 4.2GB
模型
archfalcon
·
parameters7.22B
·
quantizationQ4_0
4.2GB
参数
{ "stop": [ "User:", "Assistant:" ] }
31B
模板
{{ .System }} User: {{ .Prompt }} Assistant:
45B
自述文件
Falcon 是由技术创新研究所 (TII) 构建的高性能大型语言模型系列,TII 是阿布扎比政府高级技术研究委员会下属的研究中心,负责监督技术研究。
CLI
ollama run falcon "Why is the sky blue?"
API
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
参数计数
参数数量 | 建议内存 | ||
---|---|---|---|
70 亿 | 8GB | 查看 | ollama run falcon:7b |
400 亿 | 32GB | 查看 | ollama run falcon:40b |
1800 亿 | 192GB | 查看 | ollama run falcon:180b |
版本
chat |
Chat 模型在聊天和指令数据集上进行了微调,其中混合了多个大型对话数据集。 |
instruct |
Instruct 模型遵循指令,并在 baize 指令数据集上进行了微调。 |
text |
Text 模型是基础模型,未经任何对话微调,最适合用于简单的文本补全。 |
Falcon 180B
截至 2023 年 9 月,拥有 1800 亿参数的模型 Falcon 180B 是性能最佳的公开 LLM。它的性能介于 OpenAI 的 GPT 3.5 和 GPT 4 之间。 为了运行 Falcon 180B,建议使用至少 192GB 总内存的强大系统。
注意:Falcon 180B 的发布许可与其较小的同系列模型不同,该许可在特定条件下限制商业用途。有关更多信息,请参阅模型详情和许可。