更新于13个月前
13个月前
4280f7257e73 · 4.2GB
model
架构falcon
·
参数72.2亿
·
量化Q4_0
4.2GB
params
{ "stop": [ "User:", "Assistant:" ] }
31B
template
{{ .System }} User: {{ .Prompt }} Assistant:
45B
自述文件
Falcon是由技术创新研究院(TII)构建的一系列高性能大型语言模型,TII是阿布扎比政府先进技术研究委员会下属的一个研究中心,负责监督技术研究。
命令行界面
ollama run falcon "Why is the sky blue?"
应用程序接口
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
参数数量
参数数量 | 推荐内存 | ||
---|---|---|---|
70亿 | 8GB | 查看 | ollama run falcon:7b |
400亿 | 32GB | 查看 | ollama run falcon:40b |
1800亿 | 192GB | 查看 | ollama run falcon:180b |
变体
聊天 |
聊天模型在聊天和指令数据集上进行了微调,混合了多个大规模对话数据集。 |
指令 |
指令模型遵循指令,并在 baize 指令数据集上进行了微调。 |
文本 |
文本模型是没有针对对话进行任何微调的基础模型,最适合用于简单的文本补全。 |
Falcon 1800亿参数模型
截至2023年9月,拥有1800亿参数的Falcon 180B是性能最佳的公开可用的大型语言模型。它的性能介于OpenAI的GPT 3.5和GPT 4之间。建议使用至少192GB总内存的强大系统来运行Falcon 180B。
注意:Falcon 180B的许可证与其较小的同系列模型不同,它在特定条件下限制商业用途。有关更多信息,请参阅 模型详情 和许可证。