14 个月前更新
14 个月前
7cbd92dfea70 · 84GB
模型
架构falcon
·
参数41.8B
·
量化F16
84GB
模板
{{- if and .First .System }} {{ .System }} {{- end }} 用户: {{ .Prompt }} 助手:
84B
自述文件
Falcon 是一个由技术创新研究院 (TII) 构建的高性能大型语言模型家族,TII 是阿布扎比政府高级技术研究理事会的一部分,负责监督技术研究。
CLI
ollama run falcon "Why is the sky blue?"
API
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
参数数量
参数数量 | 推荐内存 | ||
---|---|---|---|
70 亿 | 8GB | 查看 | ollama run falcon:7b |
400 亿 | 32GB | 查看 | ollama run falcon:40b |
1800 亿 | 192GB | 查看 | ollama run falcon:180b |
变体
聊天 |
聊天模型在包含多个大型对话数据集的聊天和指令数据集上进行了微调。 |
指令 |
指令模型会遵循指令,并在 baize 指令数据集上进行了微调。 |
文本 |
文本模型是基础基础模型,没有针对对话进行微调,最适合用于简单的文本完成。 |
Falcon 180B
截至 2023 年 9 月,1800 亿参数模型 Falcon 180B 是性能最佳的公开发布的 LLM。它的性能介于 OpenAI 的 GPT 3.5 和 GPT 4 之间。为了运行 Falcon 180B,建议使用至少 192GB 总内存的强大系统。
注意:Falcon 180B 在与较小的同类模型不同的许可证下发布,该许可证在某些情况下限制商业用途。有关更多信息,请参阅 模型详细信息 和许可证。